Czytelnia / Technologie tłumaczeniowe

27.5. KRÓTKI RYS HISTORYCZNY

Użycie komputerów do tłumaczenia zostało po raz pierwszy zaproponowane w 1947 roku przez Warrena Weavera w korespondencji z Norbertem Wienerem i rozmowie z A.D. Boothem oraz w 1949 roku w raporcie wysłanym do amerykańskich naukowców. W następnych latach zapoczątkowano badania w Stanach Zjednoczonych, Związku Radzieckim i Europie Zachodniej. Projekty miały duży zasięg: prace nad słownikami (leksykograficzne), modele „bezpośredniego tłumaczenia”, dzielenie składniowe, interlingua, analizy statystyczne, gramatyki zależnościowe, modele warstwowe, językoznawstwo matematyczne, itd., co doprowadziło do początków językoznawstwa komputerowego, sztucznej inteligencji, formalnego językoznawstwa i nienumerycznych języków programowania, itd.

Niestety w praktyce rezultaty były mierne. Do połowy lat 60-tych XX wieku opracowano kilka pracujących systemów tłumaczeniowych, których wynik był niesatysfakcjonujący. W 1966 roku komisja powołana przez amerykańskich sponsorów (ALPAC) stwierdziła, że dobre jakościowo i tanie TM ma małe szanse powodzenia oraz, że istnieje wystarczająco dużo tłumaczy (ludzi), kończąc wiele projektów w Stanach i na całym świecie. Mimo to w następnych latach nastąpiło stopniowe odrodzenie idei w Europie i Kanadzie,  apunktem zwrotnym było pojawienie się w 1976 roku „podjęzykowego” systemu Metéo (patrz rozdział 23.) oraz zainstalowanie systemu Sastran w Komisji Europejskiej.

Przyśpieszono badania w Europie i Japonii, opartych na popularnym transferowym podejściu wielopoziomowym(warstwowym), np. system Ariane (Grenoble), system SUSY (Saarbrucken), system Mu (Kyoto) a także wielonarodowy projekt Komisji Europejskiej – Eurotra. W latach 80-tych XX wieku podejście interlingua było badane w Holandii (Rosetta i DLT) oraz w Carnegie-Mellon University, szczególnie znanym ze swojego podejścia opartego na wiedzy.

W latach 80-tych XX wieku systemy TM zaczęły być praktycznie używane w wielu miejscach (przede wszystkim w międzynarodowych korporacjach), ciągle wymagając znaczącej preedycji i postedycji i/lub użycia skontrolowanego materiału źródłowego. W tym samym czasie zaczęto wprowadzać na rynek systemy do osobistych komputerów a głównymi rozgrywającymi byli japońscy producenci komputerów tacy jak Fujitsu, Hitachi i NEC.

Pod koniec dekady pojawiła się jednostka pracy tłumacza zapewniająca tłumaczowi narzędzie, które znacznie zwiększyły jego wydajność. Kontrola terminologii i ulepszone urządzenia do przetwarzania tekstu stały się popularne w latach 80-tych, jednak decydującym krokiem naprzód były pamięci tłumaczeniowe.

W latach 90-tych XX wieku większość badań skupiła się na metodach opartych na korpusach i na połączeniu ich z tradycyjnymi metodami opartymi na zasadach, zaś nowatorstwem są prace nad tłumaczeniami języka mówionego. Na rynku sytuacja uległa zmianie przez tanie (i niskiej jakości) oprogramowanie do osobistych komputerów (w większości przypadków „opartych na zasadach”), przez popyt na natychmiastowe „niekoniecznie idealne” tłumaczenie w Internecie oraz przez rozwój systemów do tworzenia na wielką skalę taniejdokumentacji firmowej.