Czytelnia / Technologie tłumaczeniowe

Od 1959 roku badania skoncentrowały się na „ predykatywnym analizatorze składniowym”, pierwotnie skonstruowanym w National Bureau of Standards przez Idę Rhodes System ten opierał się na identyfikacji dopuszczalnych sekwencji kategorii gramatycznych (rzeczowników, czasowników, przymiotników, itd.) i prawdopodobną prognozą niniejszych kategorii. Rezultaty często były niezadowalające, wywoływane przede wszystkim przez wymuszony wybór „najbardziej prawdopodobnej” prognozy na każdym etapie. System został poprawiony tak, że sprawdzał wszystkie możliwe prognozy (był to Multiple-path Predictive Analyzer, w oparciu o który William Woods zbudował podobny analizator – Augmented Transition Network). Jednakże rezultaty były równie niezadowalające: wytwarzano wielorakie analizy składniowe nawet w przypadku zdań z pozoru zupełnie jednoznacznych; potrzebny był pewnego rodzaju analizatora semantycznego do „filtrowania” niechcianych analiz składniowych. Do 1965 roku grupa zaprzestała badań MT.

Badania w MIT, zapoczątkowane przez Bar-Hillela w 1951, były kierowane przez Victora Yngve od 1953 aż do ich zakończenia w 1965. Podczas gdy inne grupy widziały składnię jako uzupełnienie transferu leksykograficznego i środek służący do rozwiązanie wieloznaczności i uporządkowania materiału w języku docelowym, Yngve skoncentrował się właśnie na składni: tłumaczenie było procesem trzyetapowym, gramatyka języka źródłowego analizowała zdania materiału źródłowego jako reprezentacje struktur, „zasady transferu struktur” przetwarzały je na odpowiednie struktury w języku docelowym a reguły gramatyczne języka docelowego wytwarzały tekst wyjściowy. Istnieją pewne dowody na wpływ gramatyki transformacyjnej (Chomsky był związany z projektem przez dwa lata), lecz pod wieloma względami funkcjonalność MT decydowała o tym, że badacze z MIT odchodzili od teorii Chomskiego. Osiągnięto wiel jeśli chodzi o podstawowe badania składniowe i o rozwój pierwszego łańcuchowego języka programowania (COMIT). Ostatecznie stały się jednak jasne ograniczone możliwości podejścia „transferu składniowego”. Do połowy lat 60-tych Yngve przyznawał, że badania MT sprostały „barierze semantycznej… i że będziemy mieli tylko zadowalające tłumaczenia mechaniczne, kiedy maszyna będzie rozumieć co tłumaczy” (Yngve 1964).

Linguistic Research Center (LRC) na University of Texas zosało założone przez Winfrieda Lehmanna w 1958 i, podobnie jak MIT, skoncentrowało się na podstawowych badaniach składni w angielskim i niemieckim. Poczyniono starania, żeby opracować dwukierunkowe gramatyki w celu osiągnięcia tłumaczeń dwukierunkowych w obrębie zasadniczego podejścia „transferu składniowego”. Dało to podstawy do późniejszego udanego rozwoju systemu METAL (część 5. i 6. poniżej).

W University of California, Berkeley, projekt pod przewodnictwem Sydneya Lamba kładł nacisk na rolę maksymalnie wydajnych reguł słownikowych i na językową teorię odpowiednią dla MT. Lamb rozwinął gramatykę stratyfikacyjną z sieciami, węzłami i relacjami podobnymi do budowy komputerów. Tłumaczenie pojmowano jako serię procesów kodowania i rozkodowywania, ze sfery grafemów tekstu w języku źródłowym poprzez sferę morfemów i leksemów aż do semów, z których można było generować tekst w języku docelowym przechodząc przez podobne sfery. Tłumaczenie miało charakter tłumaczenia słowo w słowo, gdzie każde możliwe słowo sprawdzano w możliwie najszerszym środowisku i nie ograniczano się do zdania i bieżącego kontekstu.