Czytelnia / Technologie tłumaczeniowe

Krótka historia tłumaczenia maszynowego

John Hutchins

tłum. Agnieszka Ślemp

Źródło: http://ourworld.compuserve.com/homepages/WJHutchins

§1. Przed erą komputerów

Pierwsze pomysły dotyczące zautomatyzowania procesu tłumaczenia pojawiły się już w XVII wieku, jednak realizacja tych pomysłów stała się możliwa dopiero w wieku XX. W połowie lat 30. XX wieku Georges Artsrouni, pochodzenia francusko-armeńskiego, oraz Rosjanin Piotr Trojański opatentowali „maszyny do tłumaczenia”. Wynalazek Trojańskiego okazał się bardziej znaczący nie tylko ze względu na wprowadzenie automatycznego słownika dwujęzycznego, ale również schematu kodującego międzyjęzykowe funkcje gramatyczne (w oparciu o Esperanto) oraz planu współdziałania analizy i syntezy. Pomysły Trojańskiego nie były jednakże znane do końca lat 50., kiedy pojawiły się już pierwsze komputery.

§2. Pionierzy, 1947-1954


Badania nad zastosowaniem komputerów w procesie tłumaczenia języków naturalnych rozpoczęto, gdy tylko pojawiły się pierwsze „elektroniczne kalkulatory”. Jako początek tych badań można uznać marzec 1947, kiedy Warren Weaver, członek Fundacji Rockefellera, rozpoczął korespondencję z cybernetykiem Norbetem Wienerem. Dwa lata później Weaver opublikował notę (lipiec 1949) zawierającą wiele nowych propozycji i sugestii opartych na sukcesach kryptograficznych z czasów wojny, teorii informacji Claude’a Shannona oraz spekulacjach na temat uniwersalnych zasad, którym podlegają języki naturalne. W ciągu kilku lat na wielu uniwersytetach w Stanach Zjednoczonych rozpoczęły się badania nad tłumaczeniem maszynowym (ang. machine translation, MT). W roku 1954 miała miejsce pierwsza publiczna prezentacja możliwości tłumaczenia maszynowego (w ramach współpracy IBM i Uniwersytetu Georgetown). Pomimo użycia ograniczonego zakresu słownictwa i nie wszystkich reguł gramatycznych, prezentacja ta wpłynęła na rozpoczęcie finansowania badań nad MT na dużą skalę w USA oraz zainspirowała podejmowanie projektów MT na całym świecie.

§3. Dekada optymizmu, 1954-1966

Pierwsze systemy bazowały przede wszystkim na obszernych dwujęzycznych słownikach, gdzie hasłu w języku wyjściowym przyporządkowano jeden lub więcej ekwiwalentów w języku docelowym, oraz na kilku zasadach dotyczących szyku wyrazów w zdaniu w języku docelowym. Wkrótce jednak okazało się, że zasady zawarte w słownikach odnośnie analizy składniowej były zbyt złożone i często sprawdzały się tylko doraźnie. Pojawiła się więc potrzeba usystematyzowania metod analizy składniowej. Dla wielu projektów inspiracją stały się najnowsze osiągnięcia w dziedzinie językoznawstwa, a w szczególności modele gramatyki formalnej (generatywno-transformacyjnej, gramatyki zależności czy stratyfikacyjnej), które dawały nadzieję na znaczną poprawę jakości tłumaczenia.

Optymizm utrzymywał się na wysokim poziomie w pierwszej dekadzie badań, kiedy często przewidywano rychły przełom. Wkrótce jednak pojawiło się rozczarowanie, gdyż napotkano „bariery semantyczne”, dla których nie widziano bezpośrednich rozwiązań. Istniało wprawdzie kilka systemów operacyjnych – system Mark II (stworzony przez IBM i Uniwersytet w Waszyngtonie), zainstalowany na Wydziale Obcych Technologii USAF (ang. Foreign Technology Division), oraz system Uniwersytetu Geogetown wprowadzony do użytku w USA w Zarządzie Energii Atomowej (ang. US Atomic Energy Authority) i włoskim Euratomie – ale jakość przetłumaczonego tekstu nie była zadowalająca (chociaż satysfakcjonująca dla odbiorców potrzebujących szybkich informacji).