Czytelnia / Technologie tłumaczeniowe

W ciągu kilku lat rozpoczęły się badania na University of Washington (Seattle), University of California w Los Angeles i w Massachusetts Institute of Technology. To właśnie w MIT w 1951 roku mianowano pierwszego pełnoetatowego badacza w dziedzinie MT. Został nim Yehoshua Bar-Hillel. Rok później zwołał on pierwszą konferencję MT na której zostały sprecyzowane zarysy przyszłych badań. Victor Oswald i Bar-Hillel (gramatyka kategorii) zaproponowali zajęcie się składnią, sugerowano, że teksty powinny być pisane w określonym języku zorientowanym na MT oraz proponowano stworzenie systemów podjęzykowych. Było oczywiste, że tłumaczenia w pełni automatycznego nie można osiągnąć bez długoterminowych badań i (przejściowego) wsparcia człowieka, który był niezbędny albo do przygotowania tekstów albo do korekty materiału wyjściowego (znanych jako korekta wstępna i ostateczna). Część uczestników uważała, że podstawowym wymogiem jest wykazanie realności MT. Z tego powodu w Georgetown University, Leon Dostert współpracował z IBM nad projektem, który zaowocował pierwszym publicznym pokazem systemu MT w styczniu 1954 roku. Starannie wybrana próbka 49 zdań w języku rosyjskim została przetłumaczona na angielski, używając ściśle określonego zakresu słownictwa składającego się z 250 słów i tylko 6 reguł gramatycznych. Mimo że wartość naukowa pokazu była niska, był on wystarczająco przekonujący by pobudzić finansowanie badań MT na dużą skalę w USA oraz by zainspirować podejmowanie projektów MT na świecie, zwłaszcza w ZSRR.

3. Dekada wielkich nadziei i rozczarowań, 1956-1966

W latach 50-tych i 60-tych badania wykazywały tendencję do polaryzacji pomiędzy empirycznymi podejściami prób i błędów, często wykorzystującymi metody statystyczne z systemami, których celem była bezpośrednia praca a teoretycznymi podejściami korzystającymi z podstawowych badań językowych i dążącymi do rozwiązań długoterminowych. Metody kontrastywne były wtedy zazwyczaj określane jako metody „na siłę” i „metody perfekcjonistyczne”. Przy ocenie tego okresu należy pamiętać, że możliwości komputerów były często niewystarczające; więcej uwagi poświęcano na udoskonalenie podstawowego sprzętu komputerowego (taśmy papierowe, media magnetyczne, szybkość dostępu, itp.) oraz na opracowanie narzędzi programowych odpowiednich do przetwarzania języka. Niektóre grupy były nieuchronnie zmuszone do skoncentrowania się na kwestiach teoretycznych, zwłaszcza w Europie i Związku Radzieckim. Z powodów politycznych i wojskowych większość amerykańskich badań dotyczyła tłumaczeń rosyjsko-angielskich, większość radzieckich – systemów angielsko-rosyjskich.

Badania prowadzone przez Erwina Reiflera na University of Washington (Seattle) są typowym przykładem tłumaczeń słowo w słowo; w ich skład wchodziły wielkie słowniki dwujęzyczne gdzie informacja leksykograficzna wykorzystywana była nie tylko do wyboru ekwiwalentów leksykalnych ale także do rozwiązywani problemów gramatycznych bez użycia analizy składniowej. Hasła dawały angielskim tłumaczeniom reguły dotyczące ponownego uporządkowania materiału wyjściowego. Ogromny leksykon powszechnie używał angielskich „terminów obejmujących” (ang. ‘cover terms’) dla rosyjskich terminów polisemicznych, zawierał syntagmy i zdania składniowe oraz klasyfikację słownictwa na podjęzyki. Po początkowych badaniach nad językiem niemieckim i angielskim, grupa zajęła się podstawami rosyjsko-angielskiego systemu dla urządzenia fotoskopowego, dużego urządzenia pamięciowego raczej podobnego do dysku laserowego. Od 1958 roku badania nad praktycznym rozwojem kierowane były przez Gilberta Kinga w IBM Corporation (Yorktown Heights, New York). System został zainstalowany dla US Air Force i wytwarzał tłumaczenia przez wiele lat, aż do 1970 roku, kiedy został zastąpiony przez Systran (patrz sekcja 7. poniżej).