Czytelnia / Technologie tłumaczeniowe

Krótka historia tłumaczenia maszynowego

Dopiero na początku XX-tego wieku pojawił się pomysł stworzenia automatycznych słowników rozwiązujących problem barier językowych. W latach 30-tych, aby osiągnąć ten sam cel, pracowało niezależnie dwóch naukowców: George Artsrouni francusko-ormiańskiego pochodzenia i Rosjanin Petr Smirnov-Troyanskii. Uważa się, że ten ostatni miał większy wkład w rozwój tłumaczenia maszynowego, gdyż założył, że dla systemu tłumaczenia automatycznego konieczne są trzy etapy. Pierwszy – to edytor, który zna język źródłowy, analizuje słowa i przekształca je w formy podstawowe według ich funkcji składniowych. Następnie maszyna przekształca podstawowe formy w sekwencje ich odpowiedników w języku docelowym. W końcu ta schematyczna wersja korygowana jest przez drugiego edytora, znającego język docelowy. Pomimo wielkiego znaczenia, jakie miała praca Troyanskii’ego, pozostała ona nieznaną, aż do późnych lat 50-tych. Wynalezienie komputera doprowadziło bardzo szybko do prób użycia go do tłumaczenia języków naturalnych.

List od Warrena Weavera do specjalisty od komputerów Norberta Wienera, w marcu 1947 roku, jest uważany za początek tego procesu. Dwa lata później, w lipcu 1949 roku, Weaver opublikował swoje pomysły zastosowania komputera w tłumaczeniu, a wkrótce kilka uniwersytetów w Stanach Zjednoczonych podjęło badania nad tłumaczeniem maszynowym. W 1954 pierwsza próba wykonalności została przeprowadzona jako wspólny projekt firmy IBM i Uniwersytetu Georgetown. Mimo jego niewielkiego zakresu, pokaz uznano za sukces, co doprowadziło do sfinansowania następnych projektów w USA i innych krajach świata.
Pierwsze wersje programów tłumaczenia maszynowego bazowały na szczegółowych dwujęzycznych słownikach proponujących kilka odpowiedników w języku docelowym dla każdego wyrazu wymienionego w języku źródłowym oraz zbiór reguł dotyczących kolejności wyrazów. Złożoność zadania spowodowała, że projektanci zostali zmuszeni do dalszego ulepszania programów, w celu bardziej systematycznego uregulowania składni. Projekty wykonywano na podstawie osiągnięć w lingwistyce, a zwłaszcza rozwoju modeli transformacyjnej gramatyki generatywnej, które pojawiły się, oferując nowe możliwości tłumaczenia maszynowego. Początkowy optymizm szybko się jednak skończył. Naukowcy zaczęli sądzić, że bariery semantyczne są nie do pokonania i nie widzieli sposobu rozwiązania problemu tłumaczenia maszynowego. Firma IBM i University of Washington wyprodukowały system operacyjny o nazwie Mark II ale jego efekt rozczarował.

Rząd Stanów Zjednoczonych był na tyle zmartwiony brakiem skuteczności systemów tłumaczenia maszynowego, że powołał doradczy komitet automatycznego przetwarzania języka (Automatic Language Processing Advisory Committee ALPAC), aby je ocenił. W 1966 komitet ten złożył bardzo krytyczny raport, w którym uznał tłumaczenie maszynowe za powolne, niewydolne i dwa razy droższe niż tłumaczenie tradycyjne, wnioskując, że nie było warto inwestować pieniędzy w badania nad tą dziedziną.
W raporcie podkreślono jednak potrzebę zaprojektowania narzędzi wspomagających proces tłumaczenia, takich jak słowniki komputerowe, bazy danych itd. Chociaż raport komitetu ALPAC został skrytykowany za brak obiektywizmu i zdolności przewidywania, zamroził on przeprowadzanie badań nad tłumaczeniem komputerowym w USA na ponad dekadę. Badania kontynuowano jednak w Kanadzie, Francji i Niemczech, a kilka lat później powstały dwa systemy tłumaczenia maszynowego: Systran, używany przez Komisję Unii Europejskiej i Taummétéo, stworzony na Uniwersytecie w Montrealu do tłumaczenia prognoz pogody z języka francuskiego na angielski. Ważnych osiągnięć dokonano w latach 80-tych. Potrzeby administracyjne i handlowe wielojęzycznych wspólnot pobudziły popyt na tłumaczenia, prowadzący, m.in. we Francji, Niemczech, Kanadzie i Japonii, do rozwoju nowych systemów tłumaczenia maszynowego, takich jak Logos (z języka niemieckiego na francuski i odwrotnie) czy system wewnętrzny, stworzony przez Panamerykańską Organizację Zdrowia (z hiszpańskiego na angielski i odwrotnie), jak również kilka systemów wyprodukowanych przez firmy japońskie. Badania ożyły w latach 80-tych również dlatego, że dostęp do komputerów osobistych na wielką skalę i edytory tekstu stworzyły rynek dla tańszych systemów tłumaczenia maszynowego. Firmy takie jak ALPS, Weidner, Globalink (Ameryka Północna i Europa), Sharp, NEC, Mitsubishi, Sanyo (Japonia) potrzebowały takich programów. Jednymi z najważniejszych projektów były: GETA-Ariane (Grenoble), SUSY (Saarbrücken), MU (Kyoto), i Eurotra (Unia Europejska). Na początku lat 90-tych obserwowano zasadnicze postępy w tłumaczeniu maszynowym przy radykalnej zmianie strategii z tłumaczenia opartego na regułach gramatycznych na tłumaczenie oparte na częściach tekstów i przykładach (np. Program Reverso). Język nie był już postrzegany jako jednostka statyczna rządzona przez stałe reguły ale jako korpus dynamiczny zmieniający się według zastosowania i użytkowników, rozwijający się w czasie i adaptujący się do rzeczywistości społecznej i kulturowej.