Czytelnia / Technologie tłumaczeniowe

Żadna z grup amerykańskich nie zajęła się podejściem interlingua. Centrum zainteresowania tym podejściem znajdowało się w innym miejscu. W Cambridge Language Research Unit, Margaret Masterman i jej współpracownicy przyjęli dwie strategie badań: nad rozwojem prototypu interlingua wytwarzającego surowe „łamane” tłumaczenia (zasadniczo słowo w słowo) oraz nad rozwojem narzędzi do ulepszenia materiału wyjściowego MT poprzez bogatą sieć semantyczną wyrazów bliskoznacznych (pomyślaną jako kratownica nakładających się znaczeń). W Mediolanie, Silvio Ceccato skupił się na rozwoju interlingua opartym na analizie pojęciowej słów (gatunki, rodzaje, typy czynności, właściwości fizyczne, itd.) i ich możliwej korelacji z innymi słowami w tekstach. Podobnie jak w Stanach Zjednoczonych, także w Związku Radzieckim badania rozwijały się szybko i wykazywały połączenie podejścia empirycznego i podstawowego podejścia teoretycznego. W 1955 roku, krótko po wizycie D.Y. Panova, który obejrzał prezentację systemu IBM-Georgetown, rozpoczęły się badania w
Instytucie Mechaniki Precyzyjnej. Doświadczenia dotyczące tłumaczenia angielsko-rosyjskiego były podobne do podejścia z Georgetown ale miały mniejsze znaczenie praktyczne. Bardziej podstawowe badania zostały podjęte w Instytucie Matematyki Steklova pod kierownictwem Ljapunowa, Kulagina i innych, głównie w kierunku tłumaczenia francusko-rosyjskiego. Podobnie jak w MIT, najwięcej uwagi poświęcono rozwojowi narzędzi programowych dla procesów językowych. Badania Igora Mielczuka i innych w Instytucie Językowym w Moskwie były bardziej teoretyczne w swojej naturze, dotyczyły interlingua i prowadziły do stratyfikacji modelu „tekstu sensownego” jako podstawy dla MT (patrz część 5. poniżej). Jednakże głównym ośrodkiem badań nad interlingua był Uniwersytet w Leningradzie, gdzie zespół pod kierownictwem Nikolai Andreewa skierował się ku interlingua nie jako abstrakcyjnej przejściowej reprezentacji (ujęcie Mielczuka), lecz jako sztucznemu językowi z własną morfologią i składnią oraz mającego tylko cechy statystycznie innych języków.

Do połowy lat 60-tych, założono grupy badawcze MT w wielu krajach na całym świecie, w tym w większości krajów europejskich (Węgry, Czechosłowacja, Bułgaria, Belgia, Niemcy, Francja, itd.), w Chinach, Meksyku i Japonii. Wiele z nich działało krótko i bez dalszego wpływu. Jednak niektóre wówczas powstałe grupy nabrały później znaczenia, w szczególności projekt zapoczątkowany w 1960 roku na Uniwersytecie w Grenoble.
 
4. Raport Komitetu Automatycznego Przetwarzania Języka (Automatic Language Processing Advisory Committee, ALPAC) i jego konsekwencje

W latach 50-tych dominował optymizm; wydawało się, że rozwój komputerów i językoznawstwa formalnego, zwłaszcza w zakresie składni przyniesie znaczne polepszenie jakości. Przewidywano rychły przełom oraz pełną automatyzację systemów operacyjnych w ciągu kilku lat. Jednakże rozczarowanie wzrastało wraz ze złożonością oczywistych problemów językowych. W raporcie z postępu MT, Bar-Hillel (1960) skrytykował przeważające założenie, że celem badań MT powinno być stworzenie systemów w pełni automatycznych tłumaczeń wysokiej jakości (ang. Fully Automated High Quality Machine Translation, FAHQT), które wytwarzałyby tłumaczenie nie różniące się od tłumaczeń wykonywanych przez człowieka. Uważał on, że było to nie tyle nierealistyczne wziąwszy pod uwagę obecny stan wiedzy językowej i stan systemów komputerowych, co w zasadzie niemożliwe. Swój argument zilustrował na przykładzie angielskiego słowa pen. Może mieć ono co najmniej dwa znaczenia (kojec dla zwierząt lub dzieci oraz narzędzie do pisania). W zdaniu The box was in the pen wiemy, że tylko pierwsze znaczenie jest prawdopodobne; drugie znaczenie jest wykluczone przez nasza wiedzę dotyczącą rozmiarów przyborów do pisania i pudełek. Bar-Hillel utrzymywał, że żaden program komputerowy nie mógłby dać sobie rady z taką wiedzą bez użycia ogromnej pamięci encyklopedycznej.  Jego argument miał wówczas duże znaczenie. Wielu badaczy musiało stawiać czoła podobnym „barierom semantycznym”, na które nie istniały żadne bezpośrednie rozwiązania. Według Bar-Hillela, MT powinno przyjąć mniej wieloznaczne cele, budować systemy, które w sposób opłacalny korzystałyby ze współpracy człowieka i maszyny.