Metody matematyczne w językoznawstwie porównawczym. Historia zastosowań metod matematycznych w językoznawstwie


           Od czasu, gdy Baudouin de Courtenay już w 1904 roku po raz pierwszy wyraził opinię o konieczności stosowania metod matematycznych w językoznawstwie ( Kondraszow N.A., 1979, 170), minęło sporo czasu, zanim rozpoczęły się pierwsze poważne próby ich wykorzystania. Stopniowo jednak metody matematyczne w językoznawstwie znalazły szerokie zastosowanie. Powstała nawet cała gałąź językoznawstwa - językoznawstwo matematyczne ( Lesokhin M.M., 1982 i inne). W fonetyce i składni zastosowanie procesów Markowa znanych w teorii prawdopodobieństwa jest bardzo obiecujące. W najbardziej interesującej nas językoznawstwie historycznym i porównawczym rozwijane są metody glottochronologii, z których jedną zaproponował Maurice Swadesh (Maurice Swadesh, 1960-1). Przyjął, że pewna część podstawowego słownictwa wszystkich języków tworzy pewien rdzeń leksykalny, który jest stosunkowo stabilny, ponieważ zmienia się w stałym, ale bardzo wolnym tempie, mniej więcej w taki sam sposób, jak rozpad radioaktywny. Jeśli znamy procent słów, które przetrwały w języku przez określony czas, to możemy obliczyć stałą szybkości zmian składu leksykalnego, która choć ma stałą wartość, może się nieznacznie różnić dla różnych języków i różnych okresy ich rozwoju. Sporządził listę rdzenia leksykalnego wyrazów, najpierw w ilości 100, a później 200 słów i porównując procent słów w tym rdzeniu, jakie zachowały się w parach blisko spokrewnionych języków, próbował obliczyć czas minęło od chwili, gdy te języki oddzieliły się od siebie. Jednak tempo zmian językowych w rzeczywistości różni się znacznie w zależności od języka i epoki. Według Vl. Georgiewa „w systemie pierwotnym proces zmian w życiu społecznym i języku zachodzi tym wolniej, im bardziej wnikamy w głąb tysiącleci: do najmniejszych zmian potrzebne były nie stulecia, ale tysiąclecia” ( Georgiew Vl., 1958, 243). Jest zatem prawdopodobne, że wyniki obliczeń uzyskane przez Swadesha zaprzeczały oczywistym faktom, a naukowiec próbował ulepszyć swoją metodę, ale bezskutecznie ( Swadesha Morrisa, 1960-2). Jego pomysł był z pewnością bardzo ciekawy, jednak jego realizacja była niemożliwa ze względu na trudność w ustaleniu stałej szybkości zmian w rdzeniu leksykalnym oraz zasadniczą niemożność stworzenia listy słów dla tego rdzenia, która byłaby uniwersalna dla wszystkich języków świata bez wyjątku. Niemożność rozwiązania tych problemów udowodnił Harry Heuer ( Hoyera Harry'ego, 1960) i V.A. Zvegintsev, który napisał:


           Kiedy M. Swadesh próbuje sporządzić „listę eksperymentalną” odpowiednią dla wszystkich języków i sformułować uniwersalne zasady jej sporządzania, stawia sobie zadanie, którego w rzeczywistości nie da się wykonać” (Zvegintsev V.A., 1960, 13) .


           Również interesującą próbę ustalenia wieku poszczególnych języków podjęli M.V. Arapov i M.M. Postawili sobie za zadanie „zbudowanie modelu matematycznego zmian w słowniku i na podstawie tego modelu teoretyczne uzyskanie związku pomiędzy czasem wystąpienia słowa a jego pozycją w słowniku częstotliwościowym” ( Arapow M.V., Herts M.M., 1974, 3). Otrzymawszy ten model, mieli nadzieję obliczyć wiek poszczególnych, spokrewnionych języków. W tym celu zaproponowali wzór empiryczny opisujący prawdopodobieństwo pojawienia się słowa w wybranym momencie. Kluczowe miejsce w tej formule zajmuje pewna stała, która sama może się zmieniać dla różnych odcinków chronologicznych i dla różnych języków, ale tempo rozwoju języka w różnych okresach, jak już wspomniano, może być bardzo różne i teraz nie możemy mieć najmniejsze informacje na temat tych prezentacji funkcji. Autorzy obiektywnie ocenili swoją metodę, zauważając, że zależało im jedynie na zademonstrowaniu jej możliwości, gdyż do obliczenia stałej konieczne byłoby posiadanie słowników częstotliwości skompilowanych według ujednoliconej metodologii, a leksykografia historyczna musiałaby być rozwinięta do tego stopnia, aby umożliwiłoby rejestrowanie momentu pojawienia się nowego słowa z dokładnością co najmniej do stulecia. „Ponieważ oba te wymogi nie są spełnione... dane dotyczące tempa zmian poszczególnych języków nie są porównywalne” ( Arapow M.V., Herts M.M., 1974, 56). Dlatego metoda wciąż oczekuje na wdrożenie.

           Pierwszą próbę ilościowego określenia stopnia pokrewieństwa między językami podjął w 1927 r. J. Czekanowski. Do oceny podobieństwa dwóch skojarzeń próbował zastosować matematyczne kryterium niezależności, wprowadzone do praktyki badań antropologicznych przez E.B. Taylora w 1888 roku. Za pomocą tej metody polski badacz odzwierciedlił stopień pokrewieństwa języków słowiańskich, a później niektórych Języki indoeuropejskie ( Czekanowski Jan, 1957, 71). Metoda ta nie została zaakceptowana przez większość lingwistów ze względu na arbitralny dobór cech i konieczność podwójnego policzenia niektórych z nich ( Hanna Popowska-Taborska, 1991, 34). Istnieją także inne metody oceny podobieństwa skojarzeń, które uwzględniają obecność pewnej cechy w jednym z dwóch obiektów, której nie ma w drugim obiekcie.

           Jednakże w przypadku badania pokrewieństwa języków poprzez porównywanie słownictwa są one niedopuszczalne, ponieważ brak cechy w rzeczywistości może oznaczać jedynie jej brak do naszej dyspozycji, ale w rzeczywistości mógł istnieć wcześniej lub istnieje obecnie, ale nie zostało to odnotowane przez badaczy naukowych. W archeologii i antropologii podobne metody mogą znaleźć zastosowanie, gdyż tam mamy do czynienia z przedmiotami materialnymi, które w wystarczającym stopniu dają wyobrażenie o ich pierwotnej formie, natomiast w językoznawstwie historycznym nigdy nie możemy być pewni braku jakichkolwiek cech w przedmiocie. badań w odległej przeszłości. Dlatego w językoznawstwie obowiązuje zasada: „Tylko fakty pozytywne mają wartość dowodową”.

           Później idee Czekanowskiego w pewnym sensie kontynuował inny polski badacz W. Manczak, który wyznaje podstawową koncepcję: istnieje pewien związek pomiędzy pokrewieństwem języków a ich położeniem geograficznym ( Mańczaka Witolda, 1981, 138). Dokonuje porównania liczby wyrazów pospolitych języków gotyckiego, starobułgarskiego i litewskiego, posługując się wyłącznie tekstami biblijnymi zapisanymi w tych językach, wychodząc z założenia, że ​​są one bardzo zbliżone do języków, odpowiednio, germańskiego, słowiańskiego i bałtyckiego. zasada druga: policzenie tego, co można znaleźć w gramatykach i słownikach, często może prowadzić do fałszywych wniosków, natomiast policzenie tego, co jest zawarte w tekstach, pozwala odkryć prawdę. Nie tu miejsce na rozważanie jej zasad językowych, tym bardziej, że Popowska-Taborska już to zrobiła ( Hanna Popowska-Taborska, 1991, 35-35, 94-97), jednak matematyczna strona badań wymaga pewnych komentarzy. Generalnie nie da się powiązać położenia geograficznego rodowego domu Słowian na podstawie danych uzyskanych z trzech języków, gdyż, mówiąc obrazowo, w jednym równaniu jest więcej niż jedna niewiadoma. Otrzymawszy nawet prawdziwy diagram rozmieszczenia trzech języków na płaszczyźnie, musimy dokładnie znać miejsce powstania przynajmniej jednego z tych języków i mieć pewność, że obszar jednego z pozostałych języków​ leży w pewnym kierunku od niego. Poza tym trzeba też w jakiś sposób określić czas, gdyż użytkownicy wszystkich trzech języków z biegiem czasu mogli niejednokrotnie zmieniać miejsca swojego zamieszkania i znajdować się w różnych pozycjach względem siebie. Przyłączenie się do badań nad związkami tych języków z łaciną, jak czyni to Manchak, również niewiele zmienia, ponieważ nie ma też powodu zakładać a priori, że języki germańskie, słowiańskie i bałtyckie ukształtowały się w okresie istnienia starożytności rzymskiej. Imperium.

dyscyplina matematyczna, której przedmiotem jest opracowanie formalnego aparatu do opisu struktury języków naturalnych i niektórych sztucznych. Powstał w latach 50-tych. XX wiek; jedna z głównych zachęt do pojawienia się M. l. stanowiło pilną potrzebę w językoznawstwie wyjaśnienia jej podstawowych pojęć. Metody M. l. mają wiele wspólnego z metodami logiki matematycznej – dyscypliną matematyczną badającą strukturę rozumowania matematycznego – a w szczególności z takimi działami, jak teoria algorytmów i teoria automatów. Szeroko stosowany w M. l. także metody algebraiczne. M. l. rozwija się w ścisłej interakcji z językoznawstwem. Czasami określenie „M. ja.” jest również używane w odniesieniu do wszelkich badań językowych, w których używany jest jakiś rodzaj aparatu matematycznego.

Matematyczny opis języka opiera się na idei języka jako mechanizmu, którego korzenie sięgają F. de Saussure’a, którego funkcjonowanie przejawia się w aktywności mowy jego użytkowników; jego wynikiem są „poprawne teksty” - sekwencje jednostek mowy zgodne z określonymi wzorami, z których wiele umożliwia opis matematyczny. Rozwój i badanie metod matematycznego opisu poprawnych tekstów (przede wszystkim zdań) stanowi treść jednego z działów literatury matematycznej. - teorie sposobów opisu struktury składniowej. Aby opisać strukturę zdania, a dokładniej jego strukturę składniową, można w nim albo wyróżnić komponenty- grupy słów, które funkcjonują jako integralne jednostki syntaktyczne lub wskazują dla każdego słowa te słowa, które są mu bezpośrednio podporządkowane (jeśli istnieją). Tak więc w zdaniu „Woźnica siedzi na belce” (A.S. Puszkin), opisanym zgodnie z pierwszą metodą, składnikami będzie całe zdanie P, każde z jego poszczególnych słów i grup słów A = siedzenie na belka i B = na belce (patrz rys. 1; strzałki wskazują „bezpośrednie mocowanie”); opis według metody drugiej daje schemat pokazany na ryc. 2. Nazywa się obiekty matematyczne powstałe w tym przypadku układ komponentów(pierwsza metoda) i syntaktyczne drzewo podporządkowania(druga metoda).

Mówiąc dokładniej, system składników to zbiór segmentów zdania, który zawiera jako elementy całe zdanie i wszystkie wystąpienia słów w tym zdaniu („odcinki jednowyrazowe”) i ma tę właściwość, że każde dwa zawarte w nim segmenty albo nie przecinają się lub jeden z nich jest zawarty w innym; Drzewo podporządkowania składniowego lub po prostu drzewo podporządkowania to drzewo, którego wiele węzłów oznacza wiele wystąpień słów w zdaniu. drzewo w matematyce nazywa się zbiór, pomiędzy elementami, których są nazywane węzły- ustanawia się relację binarną - nazywa się to stosunek podporządkowania i są graficznie reprezentowane przez strzałki prowadzące od węzłów podrzędnych do podrzędnych - tak, że: 1) wśród węzłów jest dokładnie jeden - nazywa się to źródło, - niepodporządkowany żadnemu węzłowi; 2) każdy z pozostałych węzłów jest podporządkowany dokładnie jednemu węzłowi; 3) rozpoczynając od dowolnego węzła wskazanego strzałkami, nie można powrócić do tego samego węzła. Węzły drzewa podporządkowania to wystąpienia słów w zdaniach. Przedstawiony graficznie układ elementów (jak na ryc. 1) również przybiera wygląd drzewa ( drzewo komponentów). Często nazywane jest drzewem podporządkowania lub systemem elementów zbudowanych dla zdania struktura syntaktyczna w postaci drzewa podporządkowania (systemu komponentów). Systemy komponentów stosowane są przede wszystkim w opisach języków o sztywnym porządku wyrazów, drzewach podporządkowania – w opisach języków o dowolnym porządku wyrazów (w szczególności rosyjskim), formalnie, dla każdego (nie za krótkiego) zdania, można skonstruować wiele różnych struktur syntaktycznych dowolnego z tych dwóch typów, ale spośród nich tylko jedna lub więcej jest poprawnych. Podstawą prawidłowego drzewa podporządkowania jest zwykle predykat. Zdanie, które ma więcej niż jedną poprawną strukturę syntaktyczną (tego samego typu), nazywa się syntaktycznie homonimiczne; Z reguły różnym strukturom syntaktycznym odpowiadają różne znaczenia zdania. Na przykład zdanie „Uczniowie z Rżewa pojechali do Torzhoka” dopuszcza dwa prawidłowe drzewa podporządkowania (ryc. 3, a, b); pierwszy z nich odpowiada znaczeniu „Dzieci w wieku szkolnym z Rżewa pojechały (niekoniecznie z Rżewa) do Torzhoka”, drugi - „Dzieci w wieku szkolnym (niekoniecznie z Rżewa) pojechały z Rżewa do Torzhoka”.

W języku rosyjskim i wielu innych językach drzewa podporządkowania zdań „w stylu biznesowym” są zwykle podporządkowane prawo rzutowości, która polega na tym, że wszystkie strzałki można przeciągnąć nad linią, na której napisane jest zdanie, w taki sposób, aby żadna z nich nie przecinała się i pierwiastek nie leżał pod żadną strzałką. W języku fikcji, zwłaszcza w poezji, odstępstwa od prawa rzutowości są dopuszczalne i najczęściej służą wywołaniu określonego efektu artystycznego. Tak więc w zdaniu „Przyjaciele krwawej starożytności wojny ludowej” (Puszkin) nieprojektywność prowadzi do zdecydowanego podkreślenia słowa „ludowy”, a jednocześnie wydaje się spowalniać mowę, tworząc w ten sposób wrażenie pewnego uniesienia i powagi. Istnieją inne formalne cechy drzew podporządkowania, które można wykorzystać do scharakteryzowania stylu. Na przykład maksymalna liczba zagnieżdżonych strzałek służy jako miara „uciążliwości składniowej” zdania (patrz ryc. 4).

W celu bardziej adekwatnego opisu budowy zdania składniki zwykle oznacza się symbolami kategorii gramatycznych („fraza rzeczownikowa”, „grupa czasowników przechodnich” itp.), a strzałki drzewa podporządkowania oznacza się symbolami relacje syntaktyczne („predykatywne”, „ostateczne” itp.).

Aparat drzew podporządkowania i systemów składowych służy również do przedstawienia głębokiej struktury syntaktycznej zdania, która stanowi poziom pośredni między strukturą semantyczną a zwykłą strukturą syntaktyczną (ta ostatnia nazywana jest często syntaktyką powierzchniową).

Lepszą reprezentację składniowej struktury zdania (wymagającą jednak bardziej złożonego aparatu matematycznego) zapewnia wzór syntaktyczne systemy grupowe, które obejmują zarówno frazy, jak i powiązania syntaktyczne, i to nie tylko między słowami, ale także między frazami. Systemy grup syntaktycznych pozwalają połączyć rygor formalnego opisu struktury zdania z elastycznością charakterystyczną dla tradycyjnych, nieformalnych opisów. Drzewa podporządkowania i systemy składowe są skrajnymi szczególnymi przypadkami systemów grup syntaktycznych.

Kolejną sekcją M. l., która zajmuje w niej centralne miejsce, jest teoria gramatyk formalnych, który rozpoczął się od dzieł N. Chomskiego. Bada sposoby opisu wzorców charakteryzujących nie pojedynczy tekst, ale cały zbiór tekstów poprawnych danego języka. Wzorce te opisano za pomocą gramatyka formalna- abstrakcyjny „mechanizm”, który pozwala, przy zastosowaniu jednolitej procedury, uzyskać poprawne teksty danego języka wraz z opisami ich struktury. Najpopularniejszym rodzajem gramatyki formalnej jest gramatyka generatywna, czyli gramatyka Chomsky'ego, która jest systemem uporządkowanym Г = ⟨ V, W, П, R ⟩, gdzie V i W są rozłącznymi zbiorami skończonymi, zwanymi odpowiednio główny, Lub terminal, I pomocniczy, Lub nieterminalny, alfabety(ich elementy nazywane są odpowiednio głównymi lub końcowymi i pomocniczymi lub nieterminalowymi, symbolika), P - element W, tzw postać startowa, a R jest zbiorem skończonym zasady postaci φ → ψ, gdzie φ i ψ są łańcuchami (ciągami skończonymi) symboli głównych i pomocniczych. Jeżeli φ → ψ jest regułą gramatyki Г i ω 1, ω 2 są łańcuchami symboli głównych i pomocniczych, to mówią, że łańcuch ω 1 ψω 2 bezpośrednio wywnioskować w Г od ω 1 φω 2 . Jeśli ξ 0, ξ 1, ..., ξ n są łańcuchami i dla każdego i = 1, ..., n łańcuch ξ i można bezpośrednio wyprowadzić z ξ i−1, mówimy, że ξ n nie do pomyślenia w Г od ξ 0 . Zbiór tych łańcuchów podstawowych symboli, które można wyprowadzić w Γ z jego początkowego symbolu, nazywa się język generowany przez gramatykęГ i jest oznaczony jako L(Г). Jeśli wszystkie reguły Γ mają postać η 1 Aη 2 → η 1 ωη 2 , to Γ nazywa się gramatyka komponentów(lub bezpośrednio składniki), w skrócie NS- gramatyka; jeśli w każdej regule łańcucha znajdują się η 1 i η 2 ( kontekst prawy i lewy) są puste, wówczas wywoływana jest gramatyka bezkontekstowy(Lub bezkontekstowe), w skrócie B- gramatyka(lub KS- gramatyka). W najpowszechniejszej interpretacji językowej symbolami głównymi są słowa, symbole pomocnicze to symbole kategorii gramatycznych, symbol początkowy to symbol kategorii „zdanie”; w tym przypadku język wygenerowany przez gramatykę interpretuje się jako zbiór wszystkich poprawnych gramatycznie zdań danego języka naturalnego. W gramatyce NN wynik zdania daje drzewo składników, w którym każdy składnik składa się ze słów „pochodzących” z pojedynczego symbolu pomocniczego, tak że każdemu składnikowi przypisana jest jego kategoria gramatyczna. Zatem jeśli gramatyka ma m.in. reguły P → S x, y, im, V y → V i y O, O → S x, y, zdanie, V i y → siedzi, S mąż, jednostka, im → on , woźnica, mąż S, liczba pojedyncza, zdanie. → napromieniowanie, to zdanie „Kierowca siedzi na napromieniowaniu” ma konkluzję pokazaną na ryc. 5, gdzie strzałki przechodzą od lewych części zastosowanych reguł do elementów prawych części. Układ elementów odpowiadający temu wnioskowi pokrywa się z pokazanym na ryc. 1. Możliwe są także inne interpretacje: np. symbole podstawowe można interpretować jako morfy, symbole pomocnicze jako symbole typów morfów i dopuszczalnych łańcuchów morfów, symbol początkowy jako symbol typu „forma słowa”, a język generowane przez gramatykę jako zbiór regularnych form wyrazowych (interpretacja morfologiczna); Stosuje się także interpretacje morfologiczne i fonologiczne. W rzeczywistych opisach języków stosuje się zazwyczaj gramatyki „wielopoziomowe”, które zawierają sekwencyjnie działające reguły syntaktyczne, morfologiczne i morfonologiczno-fonologiczne.

Innym ważnym rodzajem gramatyki formalnej jest gramatyka dominacji, co generuje wiele łańcuchów, zwykle interpretowanych jako zdania wraz z ich strukturami syntaktycznymi w postaci drzew podporządkowania. Gramatyka grup składniowych generuje wiele zdań wraz z ich strukturami syntaktycznymi, które mają postać systemów grup syntaktycznych. Istnieją również różne koncepcje gramatyka transformacyjna (gramatyki drzew), która służy nie do generowania zdań, ale do przekształcania drzew, interpretowanych jako drzewa podporządkowania lub drzewa składowe. Przykładem jest Δ- gramatyka- system zasad przekształcania drzew, rozumianych jako „czyste” drzewa podporządkowania zdaniowego, czyli drzewa podporządkowania bez liniowego porządku wyrazów.

Wyróżniają się Gramatyka Montague'a, służące do jednoczesnego opisu struktur syntaktycznych i semantycznych zdania; posługują się skomplikowanym aparatem matematyczno-logicznym (tzw intencjonalna logika).

Gramatyki formalne służą do opisu nie tylko języków naturalnych, ale także sztucznych, zwłaszcza języków programowania.

W M. l. są również opracowywane modele analityczne języki, w których na podstawie pewnych danych o mowie, uznawanych za znane, dokonuje się konstrukcji formalnych, których efektem jest opis pewnych aspektów struktury języka. Modele te zwykle wykorzystują prosty aparat matematyczny - proste pojęcia teorii mnogości i algebry; Dlatego czasami nazywa się analityczne modele języka teoria mnogości. W najprostszych modelach analitycznych danymi początkowymi jest zbiór poprawnych zdań i układ okolica- zestawy „słów” należących do jednego leksemu (na przykład (dom, dom, dom, dom, dom, dom, dom, dom, dom, dom)). Najprostszą koncepcją pochodną w takich modelach jest substytucyjność: słowo A można zastąpić słowem B, jeśli każde poprawne zdanie zawierające wystąpienie tego słowa A, pozostaje poprawne, gdy zastępuje się to wystąpienie wystąpieniem słowa B. Jeśli A wymienny przez B I B NA A, tak mówią A I B wymienny. (Na przykład w języku rosyjskim słowo „niebieski” zastępuje się słowem „goluboy”; słowa „sinego” i „golubogo” są wymienne.) Nazywa się klasę słów, które są ze sobą wymienne rodzina. Na podstawie sąsiedztw i rodzin można wyprowadzić szereg innych znaczących językowo klasyfikacji słów, z których jedna z grubsza odpowiada tradycyjnym częściom systemu mowy. W innym typie modeli analitycznych zamiast zbioru zdań poprawnych wykorzystuje się relację potencjalnego podporządkowania między wyrazami, czyli zdolność jednego z nich do podporządkowania drugiego w zdaniach poprawnych. W takich modelach możliwe jest uzyskanie w szczególności formalnych definicji szeregu tradycyjnych kategorii gramatycznych – na przykład formalnej definicji przypadku rzeczownika, która jest procedurą pozwalającą na zrekonstruowanie systemu przypadków języka, znając jedynie relacja potencjalnego podporządkowania, system sąsiedztw i zbiór słów będących formami rzeczowników.

Modele języka analitycznego wykorzystują proste pojęcia z teorii mnogości i algebry. Blisko analitycznych modeli języka modele deszyfrowania- procedury pozwalające z odpowiednio dużego korpusu tekstów w nieznanym języku, bez żadnych wstępnych informacji na jego temat, uzyskać szereg danych o jego strukturze.

Zgodnie ze swoim przeznaczeniem M. l. jest przede wszystkim narzędziem językoznawstwa teoretycznego. Jednocześnie jego metody znajdują szerokie zastosowanie w badaniach lingwistyki stosowanej - automatycznym przetwarzaniu tekstu, automatycznym tłumaczeniu i opracowaniach związanych z tzw. komunikacją między człowiekiem a komputerem.

  • Kulagina O. S., O jednym sposobie definiowania pojęć gramatycznych na gruncie teorii mnogości, w: Problems of Cybernetics, t. 1, M., 1958;
  • Chomsky'ego N., Struktury składniowe, w: „New in Linguistics”, t. 2, M., 1962;
  • Gładki AV, Melchuk I. A., Elementy lingwistyki matematycznej, M., 1969 (dosł.);
  • własne, Gramatyki drzew, I, II, w: Informacyjne zagadnienia semiotyki, językoznawstwa i tłumaczenia automatycznego, w. 1, 4, M., 1971-74 (dosł.);
  • Marcus S., Teoretyczne modele języków, przeł. z języka angielskiego, M., 1970 (dosł.);
  • Gładki AV, Gramatyki i języki formalne, M., 1973 (dosł.);
  • jego, Próba formalnego zdefiniowania pojęć przypadku i rodzaju rzeczownika, w zbiorze: Problemy modelowania gramatycznego, M., 1973 (lit.);
  • jego, Struktury składniowe języka naturalnego w zautomatyzowanych systemach komunikacyjnych, M., 1985 (lit.);
  • Sukhotin B.V., Metody optymalizacji badań językowych. M., 1976 (dosł.);
  • Sevbo I.P., Graficzna reprezentacja struktur syntaktycznych i diagnostyka stylistyczna, K., 1981;
  • Impreza B. Kh., Gramatyka Montagu, reprezentacje mentalne i rzeczywistość, w książce: Semiotyka, M., 1983;
  • Montague R., Filozofia formalna, New Haven – L., 1974(oświetlony.).

Spis treści
Wstęp
Rozdział 1. Historia zastosowań metod matematycznych w językoznawstwie
1.1. Kształtowanie się językoznawstwa strukturalnego na przełomie XIX i XX wieku
1.2. Zastosowanie metod matematycznych w językoznawstwie w drugiej połowie XX wieku
Wniosek
Literatura
Wstęp
W XX wieku utrzymuje się tendencja do interakcji i wzajemnego przenikania się różnych dziedzin wiedzy. Granice pomiędzy poszczególnymi naukami stopniowo się zacierają; Pojawia się coraz więcej gałęzi aktywności umysłowej, umiejscowionych na „przecięciu” wiedzy humanitarnej, technicznej i przyrodniczej.
Kolejną oczywistą cechą nowoczesności jest chęć badania struktur i ich elementów składowych. Dlatego coraz większe miejsce zarówno w teorii naukowej, jak i praktyce zajmuje się matematyka. Zetknąwszy się z jednej strony z logiką i filozofią, z drugiej ze statystyką (a w konsekwencji z naukami społecznymi), matematyka wnika coraz głębiej w te obszary, które przez długi czas uważano za czysto „humanitarne, ” poszerzając swój potencjał heurystyczny (odpowiedź na pytanie „ile” często pomoże odpowiedzieć na pytania „co” i „jak”). Lingwistyka nie była tu wyjątkiem. Celem moich zajęć było krótkie ukazanie związku matematyki z taką dziedziną językoznawstwa, jak językoznawstwo. Od lat 50. ubiegłego wieku matematyka jest wykorzystywana w językoznawstwie do tworzenia teoretycznego aparatu do opisu struktury języków (zarówno naturalnych, jak i sztucznych). Trzeba jednak powiedzieć, że nie od razu znalazła coś podobnego do siebie. praktyczne zastosowanie. Początkowo w językoznawstwie zaczęto stosować metody matematyczne w celu wyjaśnienia podstawowych pojęć językoznawstwa, jednak wraz z rozwojem technologii komputerowej takie założenie teoretyczne zaczęto stosować w praktyce. Rozwiązanie takich problemów, jak tłumaczenie maszynowe, wyszukiwanie informacji maszynowych i automatyczne przetwarzanie tekstu, wymagało zasadniczo nowego podejścia do języka. Dla lingwistów pojawiło się pytanie: jak nauczyć się przedstawiać wzorce językowe w formie, w której można je bezpośrednio zastosować w technologii. Popularny w naszych czasach termin „lingwistyka matematyczna” odnosi się do wszelkich badań językowych wykorzystujących metody dokładne (a koncepcja metod dokładnych w nauce jest zawsze ściśle związana z matematyką). Niektórzy naukowcy ostatnich lat uważają, że samego wyrażenia nie można wynieść do poziomu terminu, gdyż nie oznacza ono żadnej szczególnej „lingwistyki”, a jedynie nowy kierunek nastawiony na doskonalenie, zwiększanie dokładności i wiarygodności metod badań języka. Lingwistyka posługuje się zarówno metodami ilościowymi (algebraicznymi), jak i nieilościowymi, co przybliża ją do logiki matematycznej, a w konsekwencji do filozofii, a nawet psychologii. Schlegel zauważył także wzajemne oddziaływanie języka i świadomości, a wybitny językoznawca początku XX wieku Ferdinand de Saussure (o jego wpływie na rozwój metod matematycznych w językoznawstwie opowiem później) powiązał budowę języka z jego przynależnością do ludzie. Współczesny badacz L. Perłowski idzie dalej, utożsamiając ilościowe cechy języka (na przykład liczbę rodzajów, przypadków) z cechami mentalności narodowej (więcej na ten temat w podrozdziale 2.2, „Metody statystyczne w językoznawstwie”).
Interakcja matematyki i językoznawstwa jest tematem wieloaspektowym i w mojej pracy nie będę skupiał się na nich wszystkich, ale przede wszystkim na ich aspektach aplikacyjnych.
Rozdział I. Historia zastosowań metod matematycznych w językoznawstwie
1.1 Kształtowanie się językoznawstwa strukturalnego na przełomie XIX i XX wieku
Matematyczny opis języka opiera się na koncepcji języka jako mechanizmu, której korzenie sięgają słynnego szwajcarskiego językoznawcy z początku XX wieku, Ferdinanda de Saussure’a.
Początkowym ogniwem jego koncepcji jest teoria języka jako systemu składającego się z trzech części (sam język - langue, mowa - parole i aktywność mowy - langage), w której każde słowo (członek systemu) jest rozważane nie samo w sobie. , ale w połączeniu z innymi...

Ile kosztuje napisanie pracy?

Wybierz rodzaj pracy Praca dyplomowa (licencjacka/specjalistyczna) Część pracy Dyplom magisterski Zajęcia z praktyką Teoria kursu Streszczenie Esej Praca testowa Cele Praca certyfikacyjna (VAR/VKR) Biznesplan Pytania do egzaminu Dyplom MBA Praca dyplomowa (liceum/technika) Inne Przypadki Praca laboratoryjna, RGR Pomoc online Raport z ćwiczeń Wyszukiwanie informacji Prezentacja PowerPoint Streszczenie dla absolwentów Materiały towarzyszące do dyplomu Artykuł Test Rysunki więcej »

Dziękujemy, e-mail został do Ciebie wysłany. Sprawdź swój e-mail.

Chcesz otrzymać kod promocyjny na 15% rabatu?

Odbieraj SMS-y
z kodem promocyjnym

Skutecznie!

?Podaj kod promocyjny podczas rozmowy z menadżerem.
Kod promocyjny można zastosować jednorazowo przy pierwszym zamówieniu.
Rodzaj kodu promocyjnego - „ praca".

Interakcja matematyki i językoznawstwa


Wstęp

Rozdział 1. Historia zastosowań metod matematycznych w językoznawstwie

1.1. Kształtowanie się językoznawstwa strukturalnego na przełomie XIX i XX wieku

1.2. Zastosowanie metod matematycznych w językoznawstwie w drugiej połowie XX wieku

Rozdział 2. Wybrane przykłady zastosowania matematyki w językoznawstwie

2.1. Tłumaczenie maszynowe

2.2.Metody statystyczne w nauce języków

2.3. Nauka języka z wykorzystaniem metod logiki formalnej

2.4. Perspektywy zastosowania metod matematycznych w językoznawstwie

Wniosek

Literatura

Załącznik 1. Ronald Schleifer. Ferdynanda de Saussure’a

Dodatek 2. Ferdinand de Saussure (tłumaczenie)

Wstęp


W XX wieku utrzymuje się tendencja do interakcji i przenikania się różnych dziedzin wiedzy. Granice pomiędzy poszczególnymi naukami stopniowo się zacierają; Pojawia się coraz więcej gałęzi aktywności umysłowej, umiejscowionych na „przecięciu” wiedzy humanitarnej, technicznej i przyrodniczej.

Kolejną oczywistą cechą nowoczesności jest chęć badania struktur i ich elementów składowych. Dlatego coraz większe miejsce zarówno w teorii naukowej, jak i praktyce zajmuje się matematyka. Zetknąwszy się z jednej strony z logiką i filozofią, z drugiej ze statystyką (a w konsekwencji z naukami społecznymi), matematyka wnika coraz głębiej w te obszary, które przez długi czas uważano za czysto „humanitarne, ” poszerzając swój potencjał heurystyczny (odpowiedź na pytanie „ile” często pomoże odpowiedzieć na pytania „co” i „jak”). Lingwistyka nie była wyjątkiem.

Celem moich zajęć jest krótkie ukazanie związku matematyki z taką dziedziną językoznawstwa jak językoznawstwo. Od lat 50. ubiegłego wieku matematyka jest wykorzystywana w językoznawstwie do tworzenia teoretycznego aparatu do opisu struktury języków (zarówno naturalnych, jak i sztucznych). Trzeba jednak powiedzieć, że nie od razu znalazł on takie praktyczne zastosowanie. Początkowo w językoznawstwie zaczęto stosować metody matematyczne w celu wyjaśnienia podstawowych pojęć językoznawstwa, jednak wraz z rozwojem technologii komputerowej takie założenie teoretyczne zaczęto stosować w praktyce. Rozwiązanie takich problemów, jak tłumaczenie maszynowe, wyszukiwanie informacji maszynowych i automatyczne przetwarzanie tekstu, wymagało zasadniczo nowego podejścia do języka. Dla lingwistów pojawiło się pytanie: jak nauczyć się przedstawiać wzorce językowe w formie, w której można je bezpośrednio zastosować w technologii. Popularny w naszych czasach termin „lingwistyka matematyczna” odnosi się do wszelkich badań językowych wykorzystujących metody dokładne (a koncepcja metod dokładnych w nauce jest zawsze ściśle związana z matematyką). Niektórzy naukowcy ostatnich lat uważają, że samo to wyrażenie nie może zostać podniesione do rangi terminu, gdyż nie oznacza ono żadnej szczególnej „lingwistyki”, a jedynie nowy kierunek nastawiony na doskonalenie, zwiększanie dokładności i wiarygodności metod badań języka. Lingwistyka posługuje się zarówno metodami ilościowymi (algebraicznymi), jak i nieilościowymi, co przybliża ją do logiki matematycznej, a w konsekwencji do filozofii, a nawet psychologii. Schlegel zauważył także wzajemne oddziaływanie języka i świadomości, a wybitny językoznawca początku XX wieku Ferdinand de Saussure (o jego wpływie na rozwój metod matematycznych w językoznawstwie opowiem później) powiązał budowę języka z jego przynależnością do ludzie. Współczesny badacz L. Perłowski idzie dalej, utożsamiając ilościowe cechy języka (na przykład liczbę rodzajów, przypadków) z cechami mentalności narodowej (więcej na ten temat w podrozdziale 2.2, „Metody statystyczne w językoznawstwie”).

Interakcja matematyki i językoznawstwa jest tematem wieloaspektowym i w mojej pracy nie będę skupiał się na nich wszystkich, ale przede wszystkim na ich aspektach aplikacyjnych.

Rozdział I. Historia zastosowań metod matematycznych w językoznawstwie


1.1 Kształtowanie się językoznawstwa strukturalnego na przełomie XIX i XX wieku


Matematyczny opis języka opiera się na koncepcji języka jako mechanizmu, której korzenie sięgają słynnego szwajcarskiego językoznawcy z początku XX wieku, Ferdinanda de Saussure’a.

Początkowym ogniwem jego koncepcji jest teoria języka jako systemu składającego się z trzech części (sam język - langue, mowa - parole i aktywność mowy - langage), w której każde słowo (członek systemu) jest rozważane nie samo w sobie. , ale w powiązaniu z innymi członkami. Jak zauważył później inny wybitny lingwista, Duńczyk Louis Hjelmslev, Saussure „był pierwszym, który zażądał strukturalnego podejścia do języka, to znaczy naukowego opisu języka poprzez rejestrowanie relacji między jednostkami”.

Rozumiejąc język jako strukturę hierarchiczną, Saussure jako pierwszy postawił problem wartości i znaczenia jednostek językowych. Pojedynczych zjawisk i wydarzeń (powiedzmy historii pochodzenia poszczególnych słów indoeuropejskich) nie należy badać osobno, ale w systemie, w którym są one skorelowane z podobnymi składnikami.

Saussure uważał, że jednostką strukturalną języka jest słowo, „znak”, w którym dźwięk i znaczenie łączą się. Żaden z tych elementów nie istnieje bez siebie: native speaker rozumie więc różne odcienie znaczeniowe słowa wieloznacznego jako odrębny element całości strukturalnej, języka.

Tym samym w teorii F. de Saussure’a widać interakcję językoznawstwa z jednej strony z socjologią i psychologią społeczną (należy zauważyć, że w tym samym czasie rozwijała się fenomenologia Husserla, psychoanaliza Freuda, teoria względności Einsteina prowadzono eksperymenty z formą i treścią w literaturze, muzyce i sztukach plastycznych), z drugiej zaś – z matematyką (pojęcie systematyki odpowiada algebraicznemu pojęciu języka). Koncepcja ta zmieniła koncepcję interpretacji językowej jako takiej: zjawiska zaczęto interpretować nie w odniesieniu do przyczyn ich wystąpienia, ale w odniesieniu do teraźniejszości i przyszłości. Interpretacja nie jest już niezależna od intencji człowieka (mimo że intencje mogą być bezosobowe, „nieświadome” w freudowskim znaczeniu tego słowa).

Funkcjonowanie mechanizmu językowego objawia się aktywnością mowy rodzimych użytkowników języka. Wynikiem mowy są tzw. „teksty poprawne” – sekwencje jednostek mowy zachowujące się według określonych wzorców, z których wiele pozwala na opis matematyczny. Teoria metod opisu struktury składniowej zajmuje się badaniem sposobów matematycznego opisu poprawnych tekstów (przede wszystkim zdań). W takiej strukturze analogie językowe definiowane są nie za pomocą ich wrodzonych cech, ale za pomocą relacji systemowych („strukturalnych”).

Na Zachodzie idee Saussure'a rozwijają młodsi współcześni wielkiemu szwajcarskiemu lingwiście: w Danii - wspomniany już L. Hjelmslev, który dał początek algebraicznej teorii języka w swojej pracy „Podstawy teorii językoznawstwa”, w USA - E. Sapir, L. Bloomfield, C. Harris, w Czechach – rosyjski naukowiec na emigracji N. Trubetskoy.

Wzorce statystyczne w badaniu języka zaczął badać nikt inny jak twórca genetyki, Georg Mendel. Dopiero w 1968 roku filolodzy odkryli, że w ostatnich latach życia chętnie badał zjawiska językowe metodami matematycznymi. Mendel przeniósł tę metodę do językoznawstwa z biologii; w latach dziewięćdziesiątych XIX wieku jedynie najodważniejsi lingwiści i biolodzy deklarowali wykonalność takiej analizy. W archiwum klasztoru św. Tomasza w Brnie, gdzie Mendel był opatem, odnaleziono arkusze z kolumnami nazwisk kończącymi się na „mann”, „bauer”, „mayer” oraz pewnymi ułamkami i obliczeniami. Próbując odkryć formalne prawa pochodzenia nazwisk, Mendel dokonuje skomplikowanych obliczeń, w których bierze pod uwagę liczbę samogłosek i spółgłosek w języku niemieckim, całkowitą liczbę branych pod uwagę słów, liczbę nazwisk, itp.

W naszym kraju językoznawstwo strukturalne zaczęło się rozwijać mniej więcej w tym samym czasie, co na Zachodzie - na przełomie XIX i XX wieku. Równolegle z F. de Saussure’em koncepcja języka jako systemu rozwinęła się w pracach profesora Uniwersytetu Kazańskiego F.F. Fortunatow i I.A. Baudouina de Courtenay’a. Ten ostatni przez długi czas korespondował z de Saussurem; w związku z tym współpracowały ze sobą szkoły lingwistyki genewskiej i kazańskiej. Jeśli Saussure’a można nazwać ideologiem metod „dokładnych” w językoznawstwie, to Baudouin de Courtenay położył praktyczne podwaliny pod ich zastosowanie. Jako pierwszy oddzielił lingwistykę (jako naukę ścisłą wykorzystującą metody statystyczne i zależności funkcjonalne) od filologii (wspólnoty dyscyplin humanitarnych badających kulturę duchową poprzez język i mowę). Sam naukowiec uważał, że „lingwistyka może przydać się w najbliższej przyszłości tylko wtedy, gdy uwolni się od obowiązkowej jedności z filologią i historią literatury”. Fonologia stała się „poligonem doświadczalnym” dla wprowadzenia metod matematycznych do językoznawstwa – dźwięki jako „atomy” systemu językowego, posiadające ograniczoną liczbę łatwo mierzalnych właściwości, były najwygodniejszym materiałem do formalnych, ścisłych metod opisu. Fonologia zaprzecza istnieniu znaczenia w dźwięku, dlatego w badaniach wyeliminowano czynnik „ludzki”. W tym sensie fonemy są jak obiekty fizyczne lub biologiczne.

Fonemy, jako najmniejsze elementy językowe akceptowalne dla percepcji, reprezentują odrębną sferę, odrębną „rzeczywistość fenomenologiczną”. Na przykład w języku angielskim dźwięk „t” można wymawiać na różne sposoby, ale we wszystkich przypadkach osoba mówiąca po angielsku będzie postrzegać go jako „t”. Najważniejsze, że fonem będzie pełnił swoją główną – odróżniającą znaczenie – funkcję. Co więcej, różnice między językami są takie, że odmiany jednego dźwięku w jednym języku mogą odpowiadać różnym fonemom w innym; na przykład „l” i „r” są różne w języku angielskim, podczas gdy w innych językach są odmianami tego samego fonemu (jak angielskie „t”, wymawiane jako przydechowe lub bezprzydechowe). Rozległy słownictwo każdy język naturalny to zbiór kombinacji znacznie mniejszej liczby fonemów. Na przykład w języku angielskim do wymówienia i zapisania około miliona słów używa się tylko 40 fonemów.

Dźwięki języka reprezentują systematycznie zorganizowany zestaw cech. W latach dwudziestych i trzydziestych XX wieku, za Saussure’em, Jacobson i N.S. Trubetskoy zidentyfikowali „cechy charakterystyczne” fonemów. Cechy te opierają się na budowie narządów mowy - języka, zębów, strun głosowych. Powiedzmy, że w języku angielskim różnica między „t” i „d” polega na obecności lub braku „głosu” (napięcia strun głosowych) oraz na poziomie głosu, który odróżnia jeden fonem od drugiego. Zatem fonologię można uznać za przykład ogólnej zasady języka opisanej przez Saussure’a: „W języku są tylko różnice”. Ważniejsze nie jest nawet to: różnica zwykle implikuje dokładne warunki, pomiędzy którymi się znajduje; ale w języku istnieją tylko różnice bez precyzyjnych warunków. Niezależnie od tego, czy weźmiemy pod uwagę „znaczące” czy „oznaczone”, w języku nie ma żadnych pojęć ani dźwięków, które istniały przed rozwinięciem się systemu językowego.

Zatem w językoznawstwie Saussure’a badane zjawisko rozumiane jest jako zbiór porównań i kontrastów języka. Język jest zarówno wyrazem znaczenia słów, jak i środkiem komunikacji, a te dwie funkcje nigdy się nie pokrywają. Możemy zauważyć naprzemienność formy i treści: kontrasty językowe definiują jej jednostki strukturalne, a jednostki te współdziałają, tworząc pewną znaczącą treść. Ponieważ elementy języka są przypadkowe, podstawą nie może być ani kontrast, ani kombinacja. Oznacza to, że w języku cechy charakterystyczne tworzą kontrast fonetyczny na różnym poziomie zrozumienia, fonemy łączą się w morfemy, morfemy w słowa, słowa w zdania itp. W każdym razie cały fonem, słowo, zdanie itp. jest czymś więcej niż sumą jego części.

Saussure zaproponował ideę nowej, odrębnej od językoznawstwa nauki XX wieku, badającej rolę znaków w społeczeństwie. Saussure nazwał tę naukę semiologią (od greckiego „semeon” – znak). „Nauka” semiotyki, która rozwinęła się w Europie Wschodniej w latach dwudziestych i trzydziestych XX wieku oraz w Paryżu w latach pięćdziesiątych i sześćdziesiątych XX wieku, rozszerzyła badanie języka i struktur językowych na ustalenia literackie komponowane (lub formułowane) przy użyciu tych struktur. Ponadto u schyłku swojej kariery, równolegle z kursami lingwistyki ogólnej, Saussure rozpoczął „semiotyczną” analizę późnej poezji rzymskiej, próbując odkryć celowo skomponowane anagramy nazw własnych. Metoda ta była pod wieloma względami przeciwieństwem racjonalizmu w analizie językowej: była próbą systemowego badania problemu „prawdopodobieństwa” w języku. Takie badania pomagają skupić się na „materialnej stronie” prawdopodobieństwa; „słowo-klucz”, którego anagramu szuka Saussure, jak twierdzi Jean Starobinsky, „narzędzie dla poety, a nie źródło życia wiersza”. Wiersz służy odwróceniu dźwięków słowa kluczowego. Według Starobińskiego w tej analizie „Saussure nie zagłębia się w poszukiwanie ukrytych znaczeń”. Wręcz przeciwnie, w jego twórczości zauważalna jest chęć uniknięcia zagadnień związanych ze świadomością: „ponieważ poezja wyraża się nie tylko w słowach, ale także w tym, co te słowa generują, wykracza poza kontrolę świadomości i zależy wyłącznie od praw języka” (patrz Załącznik 1).

Podjęta przez Saussure'a próba badania nazw własnych w późnej poezji rzymskiej podkreśla jeden z elementów jego analizy językowej - arbitralność znaków, a także formalną istotę językoznawstwa Saussure'a, która wyklucza możliwość analizy znaczenia. Todorov konkluduje, że współcześnie prace Saussure’a wydają się niezwykle konsekwentne w niechęci do badania symboliki zjawiska, które ma jasno określone znaczenie [Załącznik 1]. Badając anagramy, Saussure zwraca uwagę jedynie na powtórzenia, ale nie na poprzednie warianty. . . . Studiując Nibelungów, identyfikuje symbole tylko po to, aby przypisać je do błędnych odczytań: jeśli są niezamierzone, symbole nie istnieją. Przecież w swoich pismach z zakresu językoznawstwa ogólnego sugeruje istnienie semiologii opisującej więcej niż tylko znaki językowe; ale założenie to jest ograniczone faktem, że semiologia może opisywać jedynie przypadkowe, arbitralne znaki.

Jeżeli rzeczywiście tak jest, to tylko dlatego, że nie potrafił sobie wyobrazić „intencji” bez przedmiotu; nie potrafił całkowicie pokonać przepaści pomiędzy formą a treścią – w jego pracach stało się to pytaniem. Zamiast tego odwoływał się do „legalności językowej”. Usytuowany pomiędzy, z jednej strony, dziewiętnastowiecznymi koncepcjami opartymi na historii i subiektywnych domysłach oraz opartymi na tych pojęciach metodami interpretacji przygodnej, a z drugiej, koncepcjami strukturalistycznymi, zacierającymi opozycję pomiędzy formą i treścią (podmiotem i treścią) obiekt), znaczenie i korzenie w strukturalizmie, psychoanalizie, a nawet mechanice kwantowej, pisma Ferdinanda de Saussure'a na temat językoznawstwa i semiotyki stanowią punkt zwrotny w badaniu znaczenia w języku i kulturze.

Rosyjscy naukowcy byli także reprezentowani na Pierwszym Międzynarodowym Kongresie Lingwistów w Hadze w 1928 roku. S. Kartsevsky, R. Jacobson i N. Trubetskoy przedstawili raport badający hierarchiczną strukturę języka - w duchu najnowocześniejszych idei początku ubiegłego wieku. Jacobson w swoich pracach rozwinął ideę Saussure’a, że ​​podstawowe elementy języka należy badać przede wszystkim w powiązaniu z ich funkcjami, a nie przyczynami ich występowania.

Niestety, po dojściu Stalina do władzy w 1924 r., lingwistyka krajowa, podobnie jak wiele innych nauk, została odrzucona. Wielu utalentowanych naukowców zostało zmuszonych do emigracji, wydalonych z kraju lub zginęło w obozach. Dopiero od połowy lat pięćdziesiątych XX w. możliwy stał się pewien pluralizm teorii – więcej na ten temat w podrozdziale 1.2.


1.2 Zastosowanie metod matematycznych w językoznawstwie w drugiej połowie XX wieku


Do połowy XX wieku powstały cztery światowe szkoły językowe, z których każda okazała się przodkiem pewnej „dokładnej” metody. Leningradzka szkoła fonologiczna (jej założycielem był uczeń Baudouina de Courtenaya L.V. Shcherba) jako główne kryterium uogólniania dźwięku w formie fonemu wykorzystała eksperyment psycholingwistyczny oparty na analizie mowy rodzimych użytkowników języka.

Naukowcy Praskiego Koła Lingwistycznego, w szczególności jego założyciel N.S. Trubeckoj, który wyemigrował z Rosji, rozwinął teorię opozycji - strukturę semantyczną języka opisywali oni jako zbiór opozycyjnie skonstruowanych jednostek semantycznych - rodzin. Teorię tę wykorzystywano w badaniu nie tylko języka, ale także kultury artystycznej.

Ideologami amerykańskiego deskryptywizmu byli lingwiści L. Bloomfield i E. Sapir. Język został przedstawiony deskryptywistom jako zbiór wypowiedzi mowy, które były głównym przedmiotem ich badań. Skupiali się na zasadach opisu naukowego (stąd nazwa) tekstów: badaniu organizacji, układu i klasyfikacji ich elementów. Formalizacja procedur analitycznych z zakresu fonologii i morfologii (opracowanie zasad studiowania języka na różnych poziomach, analiza dystrybucyjna, metoda składowych bezpośrednich itp.) doprowadziła do sformułowania ogólnych zagadnień modelowania językowego. Niedbałość o plan treści języka, a także o stronę paradygmatyczną języka, nie pozwoliły deskryptywistom na pełną interpretację języka jako systemu.

W latach 60. XX w. rozwinęła się teoria gramatyk formalnych, która powstała głównie dzięki pracom amerykańskiego filozofa i językoznawcy N. Chomsky'ego. Słusznie uważany jest za jednego z najsłynniejszych współczesnych naukowców i osób publicznych; poświęconych mu jest wiele artykułów, monografii, a nawet pełnometrażowy film dokumentalny. Po zasadniczo nowym sposobie opisywania struktury syntaktycznej wymyślonym przez Chomsky'ego - gramatyce generatywnej (generatywnej) - odpowiedni ruch w językoznawstwie nazwano generatywizmem.

Chomsky, potomek imigrantów z Rosji, od 1945 r. studiował lingwistykę, matematykę i filozofię na Uniwersytecie Pensylwanii, będąc jeszcze studentem silny wpływ jego nauczyciel Zelig Harris – podobnie jak Harris, Chomsky uważał i nadal uważa swoje poglądy polityczne za bliskie anarchizmu (nadal znany jest jako krytyk istniejącego systemu politycznego USA i jako jeden z duchowych przywódców antyglobalizmu).

Pierwsza poważna praca naukowa Chomsky'ego, jego praca magisterska „Morfologia współczesnego języka hebrajskiego” (1951), pozostała niepublikowana. Chomsky uzyskał doktorat na Uniwersytecie Pensylwanii w 1955 r., ale większość badań stanowiących podstawę jego rozprawy doktorskiej (opublikowanej w całości dopiero w 1975 r. pod tytułem „The Logical Structure of Linguistic Theory”) i jego pierwszej monografii „Syntaktyka Struktury” (Struktury syntaktyczne, 1957, przeł. rosyjski 1962), realizowano na Uniwersytecie Harvarda w latach 1951–1955. W tym samym 1955 roku naukowiec przeniósł się do Massachusetts Institute of Technology, gdzie w 1962 roku został profesorem.

W swoim rozwoju teoria Chomsky'ego przeszła kilka etapów.

W swojej pierwszej monografii „Struktury syntaktyczne” naukowiec przedstawił język jako mechanizm generowania nieskończonej liczby zdań przy użyciu skończonego zestawu środków gramatycznych. Do opisu właściwości językowych zaproponował koncepcje głębokich (ukrytych przed bezpośrednią percepcją i generowanych przez system rekurencyjnych, czyli reguł, które można stosować wielokrotnie) i powierzchniowych (bezpośrednio postrzeganych) struktur gramatycznych, a także przekształceń opisujących przejście od struktury głębokie do struktur powierzchniowych. Jedna głęboka struktura może odpowiadać kilku powierzchniowym (np. konstrukcja pasywna Dekret podpisywany przez prezydenta wywodzi się z tej samej struktury głębokiej, co konstrukcja czynna Prezydent podpisuje dekret) i odwrotnie (np. dwuznaczność Matka kocha swoją córkę jest opisywany jako wynik splotu struktur powierzchniowych sięgających dwóch różnych głębi, z których jedna to matka, która kocha córkę, a w drugiej ta, którą kocha córka).

Standardową teorią Chomsky'ego jest model Aspektów przedstawiony w książce Chomsky'ego Aspects of the Theory of Syntax. W modelu tym po raz pierwszy do teorii formalnej wprowadzono zasady interpretacji semantycznej, które nadają znaczenie głębokim strukturom. W „Aspektach” przeciwstawia się kompetencję językową użyciu języka (wykonaniu), przyjmuje się tzw. hipotezę Katza-Postala o zachowaniu znaczenia podczas transformacji, w związku z czym wyklucza się koncepcję transformacji opcjonalnej i wprowadza aparat cech syntaktycznych opisujące zgodność leksykalną.

W latach 70. Chomsky pracował nad teorią rządzenia i wiązania (teorią GB – od słów rząd i wiązanie) – bardziej ogólną niż poprzednia. Naukowiec porzucił w nim określone zasady opisujące struktury syntaktyczne poszczególnych języków. Wszystkie transformacje zostały zastąpione jedną uniwersalną transformacją ruchu. W ramach teorii GB istnieją również moduły prywatne, z których każdy odpowiada za swoją część gramatyki.

Jeszcze w 1995 roku Chomsky przedstawił minimalistyczny program, w którym język ludzki jest opisywany jako podobny do języka maszynowego. To tylko program, a nie model czy teoria. Chomsky identyfikuje w nim dwa główne podsystemy aparatu języka ludzkiego: leksykon i system komputerowy, a także dwa interfejsy - fonetyczny i logiczny.

Gramatyki formalne Chomsky'ego stały się klasyczne w opisie nie tylko języków naturalnych, ale także sztucznych - w szczególności języków programowania. Rozwój językoznawstwa strukturalnego w drugiej połowie XX wieku można słusznie uznać za „rewolucję Chomsky’ego”.

Moskiewska szkoła fonologiczna, której przedstawicielami byli A.A. Reformatsky, V.N. Sidorow, P.S. Kuzniecow, A.M. Sukhotin, R.I. Avanesov zastosował podobną teorię do badania fonetyki. Stopniowo „precyzyjne” metody zaczynają być stosowane nie tylko w fonetyce, ale także w składni. Zarówno lingwiści, jak i matematycy, zarówno w kraju, jak i za granicą, zaczynają badać strukturę języka. W latach pięćdziesiątych i sześćdziesiątych XX wieku w ZSRR rozpoczął się nowy etap interakcji matematyki i językoznawstwa, związany z rozwojem systemów tłumaczenia maszynowego.

Impulsem do rozpoczęcia tej pracy w naszym kraju były pierwsze osiągnięcia w dziedzinie tłumaczeń maszynowych w USA (chociaż pierwsze zmechanizowane urządzenie do tłumaczenia P.P. Smirnowa-Trojanskiego zostało wynalezione w ZSRR już w 1933 r., ponieważ było prymitywne, nie rozpowszechniło się). W 1947 r. A. Butt i D. Britten opracowali kod komputerowego tłumaczenia słowo po słowie, rok później R. Richens zaproponował zasadę podziału słów na tematy i końcówki w tłumaczeniu maszynowym. Te lata znacznie różniły się od współczesnych. Były to bardzo duże i drogie maszyny, zajmujące całe pomieszczenia, a do ich konserwacji wymagana była duża kadra inżynierów, operatorów i programistów. Zasadniczo komputery te służyły do ​​wykonywania obliczeń matematycznych na potrzeby instytucji wojskowych - nowości w matematyce, fizyce i technologii służyły przede wszystkim sprawom wojskowym. W początkowej fazie rozwój MP był aktywnie wspierany przez wojsko, natomiast (w czasie zimnej wojny) rozwinął się kierunek rosyjsko-angielski w USA, a anglo-rosyjski w ZSRR.

W styczniu 1954 r. Na Uniwersytecie Technicznym w Massachusetts odbył się „Eksperyment Georgetown” - pierwsza publiczna demonstracja tłumaczenia z języka rosyjskiego na angielski na maszynie IBM-701. Streszczenie wiadomości o pomyślnym zakończeniu eksperymentu, sporządzone przez D.Yu. Panow, ukazał się w Russian Journal of Mathematics, 1954, nr 10: „Tłumaczenie z jednego języka na drugi za pomocą maszyny: raport z pierwszego udanego testu”.

D. Yu. Panov (ówczesny dyrektor Instytutu Informacji Naukowej - INI, później VINITI) przyciągnął do pracy nad tłumaczeniem maszynowym I. K. Belską, która później kierowała grupą tłumaczeń maszynowych w Instytucie Matematyki Precyzyjnej i Informatyki Uniwersytetu im. Akademia Nauk ZSRR. Pierwsze doświadczenia z tłumaczeniem z języka angielskiego na rosyjski przy użyciu maszyny BESM sięgają końca 1955 roku. Programy dla BESM zostały opracowane przez N.P. Trifonow i L.N. Korolewa, którego rozprawa doktorska poświęcona była metodom konstruowania słowników do tłumaczenia maszynowego.

Równolegle prace nad tłumaczeniem maszynowym prowadzono na Wydziale Matematyki Stosowanej Instytutu Matematycznego Akademii Nauk ZSRR (obecnie Instytut Matematyki Stosowanej M.V. Keldysha Rosyjskiej Akademii Nauk). Z inicjatywy matematyka A.A. Lapunowa. Zaangażował absolwenta Instytutu Matematycznego Steklov O.S. w prace nad tłumaczeniem tekstów za pomocą maszyny Strela z języka francuskiego na język rosyjski. Kulagin i jego uczniowie T.D. Ventzel i N.N. Ricco. Pomysły Lapunowa i Kułaginy dotyczące możliwości wykorzystania technologii do tłumaczenia z jednego języka na drugi zostały opublikowane w czasopiśmie Nature, 1955, nr 8. Od końca 1955 roku dołączył do nich T.N. Moloshnaya, który następnie rozpoczął samodzielną pracę nad algorytmem tłumaczenia angielsko-rosyjskiego.

R. Frumkina, która w tym czasie zajmowała się tłumaczeniem algorytmicznym z języka hiszpańskiego, wspomina, że ​​na tym etapie prac trudno było podjąć jakiekolwiek spójne kroki. Znacznie częściej musiałem kierować się doświadczeniem heurystycznym – własnym lub kolegów.

Jednak pierwsza generacja systemów tłumaczenia maszynowego była bardzo niedoskonała. Wszystkie opierały się na algorytmach tłumaczenia konsekutywnego „słowo po słowie”, „fraza po frazie” – w żaden sposób nie brano pod uwagę powiązań semantycznych między słowami i zdaniami. Możesz na przykład podać następujące zdania: „Jan szukał swojego pudełka z zabawkami. Wreszcie znalazł. Pudełko było w piórze. Jan był bardzo szczęśliwy. (John szukał swojego pudełka z zabawkami. W końcu je znalazł. Pudełko było w kojcu. John był bardzo szczęśliwy.)”. „Pióro” w tym kontekście nie jest „długopisem” (przyborem do pisania), ale „kojcem” (kojcem). Znajomość synonimów, antoniów i znaczeń przenośnych jest trudna do wprowadzenia do komputera. Obiecującym kierunkiem był rozwój systemów maszynowych przeznaczonych do użytku przez tłumacza.

Z biegiem czasu systemy bezpośredniego tłumaczenia zostały zastąpione systemami T (od angielskiego słowa „transfer” - transformacja), w których tłumaczenie odbywało się na poziomie struktur składniowych. Algorytmy T-system wykorzystały mechanizm, który pozwolił im zbudować strukturę syntaktyczną zgodnie z zasadami gramatyki języka zdania wejściowego (podobnie jak uczą języka obcego w szkole średniej), a następnie zsyntetyzować zdanie wyjściowe, przekształcenie struktury syntaktycznej i podstawienie niezbędnych słów ze słownika.

Lapunow mówił o tłumaczeniu, wydobywając znaczenie przetłumaczonego tekstu i przedstawiając go w innym języku. Za najbardziej zaawansowane wciąż uważa się podejście do budowania systemów tłumaczenia maszynowego polegające na uzyskaniu reprezentacji semantycznej zdania wejściowego poprzez jego analizę semantyczną i syntezę zdania wejściowego na podstawie powstałej reprezentacji semantycznej. Takie systemy nazywane są systemami I (od słowa „interlingua”). Jednak zadanie ich stworzenia, rozpoczęte na przełomie lat 50. i 60., nie zostało do dziś w pełni rozwiązane, pomimo wysiłków Międzynarodowej Federacji IFIP, globalnej społeczności naukowców zajmujących się przetwarzaniem informacji.

Naukowcy zastanawiali się, jak sformalizować i zbudować algorytmy pracy z tekstami, jakie słowniki wpisać do maszyny, jakie wzorce językowe zastosować w tłumaczeniu maszynowym. Tradycyjne językoznawstwo nie miało takich pomysłów – nie tylko pod względem semantyki, ale także pod względem składni. Dla żadnego języka w tamtym czasie nie istniały listy struktur syntaktycznych, nie badano warunków ich zgodności i wymienności, nie opracowano zasad konstruowania dużych jednostek struktury syntaktycznej z mniejszych elementów składowych.

Potrzeba stworzenia podstaw teoretycznych dla tłumaczenia maszynowego doprowadziła do powstania i rozwoju językoznawstwa matematycznego. Wiodącą rolę w tej kwestii w ZSRR odegrali matematycy A.A. Lapunow, OS Kulagina, VA Uspienski, lingwiści V.Yu. Rosenzweig, P.S. Kuzniecow, R.M. Frumkina, AA Reformatsky, I.A. Melchuk, V.V. Iwanow. Rozprawa Kułaginy poświęcona była badaniu formalnej teorii gramatyk (jednocześnie z N. Chomskim w USA), Kuzniecow postawił problem aksjomatyzacji językoznawstwa, sięgając do dzieł F.F. Fortunatowa.

6 maja 1960 roku podjęto Uchwałę Prezydium Akademii Nauk ZSRR „W sprawie rozwoju strukturalnych i matematycznych metod badań języków”, a w Instytucie Lingwistyki i Instytucie Języka Rosyjskiego utworzono odpowiednie zakłady. Od 1960 roku wiodące uniwersytety humanitarne w kraju - Wydział Filologiczny Moskiewskiego Uniwersytetu Państwowego, Leninrad, Uniwersytety Nowosybirskie, Moskiewski Państwowy Instytut Pedagogiczny Języków Obcych - rozpoczęły szkolenie personelu w zakresie automatycznego przetwarzania tekstu.

Jednakże tłumaczenia maszynowe z tego okresu, zwanego okresem „klasycznym”, mają raczej znaczenie teoretyczne niż praktyczne. Ekonomiczne systemy tłumaczenia maszynowego zaczęto tworzyć dopiero w latach osiemdziesiątych ubiegłego wieku. Opowiem o tym później, w sekcji 2.1, „Tłumaczenie maszynowe”.

W latach sześćdziesiątych i siedemdziesiątych XX wieku nastąpił głęboki rozwój teoretyczny wykorzystujący metody teorii mnogości i logiki matematycznej, takie jak teoria pola i teoria zbiorów rozmytych.

Autorem teorii pola w językoznawstwie był radziecki poeta, tłumacz i lingwista V.G. Upomnienie. Początkowo rozwijał swoją teorię w oparciu o język niemiecki. W Admoni pojęcie „pole” oznacza dowolny, niepusty zbiór elementów językowych (na przykład „pole leksykalne”, „pole semantyczne”).

Struktura pola jest niejednorodna: składa się z rdzenia, którego elementy posiadają pełny zestaw cech definiujących zbiór, oraz peryferii, której elementy mogą posiadać zarówno cechy danego zbioru (nie wszystkie) i sąsiadujące. Podam przykład ilustrujący to stwierdzenie: powiedzmy w języku angielskim pole złożonych słów („sen na jawie” - „sen” trudno oddzielić od pola fraz („gaz łzawiący”)).

Wspomniana już teoria zbiorów rozmytych jest ściśle powiązana z teorią pola. W ZSRR jego uzasadnieniem przeprowadzili lingwiści V.G. Admoni, I.P. Iwanowa, G.G. Pochentsova, ale jego założycielem był amerykański matematyk L. Zade, który w 1965 roku opublikował artykuł „Fuzzy Logic”. Podając matematyczne uzasadnienie teorii zbiorów rozmytych, Zadeh rozpatrzył je na materiale językowym.

W tej teorii mówimy nie tyle o przynależności elementów do danego zbioru (AOa), ile o stopniu tej przynależności (mAOa), gdyż elementy peryferyjne mogą w takim czy innym stopniu należeć do kilku dziedzin. Zade (Lofti-zade) pochodził z Azerbejdżanu, do 12 roku życia miał praktykę komunikowania się w czterech językach – azerbejdżańskim, rosyjskim, angielskim i perskim – i posługiwał się trzema różnymi alfabetami: cyrylicą, łaciną i arabskim. Kiedy naukowca pyta się, co mają wspólnego teoria zbiorów rozmytych i lingwistyka, nie zaprzecza temu powiązaniu, ale wyjaśnia: „Nie jestem pewien, czy studiowanie tych języków miało duży wpływ na moje myślenie. Jeśli coś takiego miało miejsce, to być może podświadomie.” W młodości Zadeh uczył się w Teheranie w szkole prezbiteriańskiej, a po II wojnie światowej wyemigrował do Stanów Zjednoczonych. „Pytanie nie brzmi, czy jestem Amerykaninem, Rosjaninem, Azerbejdżańczykiem czy kimkolwiek innym” – powiedział

Podobne streszczenia:

Język i mowa jako jeden z podstawowych problemów stylistyki. Pojęcie fonemu i poziomu fonologicznego. Pojęcie języka jako systemu i poziomy systemu językowego. Pojęcie morfemów i ich rodzaje. Zdanie jako jednostka składniowa tekstu. Znaki systemu językowego.

Kształtowanie się językoznawstwa strukturalnego na przełomie XIX i XX wieku. Metody statystyczne w nauce języków. Zastosowanie metod matematycznych w językoznawstwie w drugiej połowie XX wieku. Nauka języka z wykorzystaniem metod logiki formalnej. Funkcje tłumaczenia maszynowego.

WSTĘP

Rozdział 1. Historia zastosowań metod matematycznych w językoznawstwie

1.1. Kształtowanie się językoznawstwa strukturalnego na przełomie XIX i XX wieku

1.2. Zastosowanie metod matematycznych w językoznawstwie w drugiej połowie XX wieku

Rozdział 2. Wybrane przykłady zastosowania matematyki w językoznawstwie

2.1. Tłumaczenie maszynowe

2.2.Metody statystyczne w nauce języków

2.3. Nauka języka z wykorzystaniem metod logiki formalnej

2.4. Perspektywy zastosowania metod matematycznych w językoznawstwie

Wniosek

Literatura

Załącznik 1. Ronald Schleifer. Ferdynanda de Saussure’a

Dodatek 2. Ferdinand de Saussure (tłumaczenie)

WSTĘP

W XX wieku utrzymuje się tendencja do interakcji i przenikania się różnych dziedzin wiedzy. Granice pomiędzy poszczególnymi naukami stopniowo się zacierają; Pojawia się coraz więcej gałęzi aktywności umysłowej, umiejscowionych na „przecięciu” wiedzy humanitarnej, technicznej i przyrodniczej.

Kolejną oczywistą cechą nowoczesności jest chęć badania struktur i ich elementów składowych. Dlatego coraz większe miejsce zarówno w teorii naukowej, jak i praktyce zajmuje się matematyka. Zetknąwszy się z jednej strony z logiką i filozofią, z drugiej ze statystyką (a w konsekwencji z naukami społecznymi), matematyka wnika coraz głębiej w te obszary, które przez długi czas uważano za czysto „humanitarne, ” poszerzając swój potencjał heurystyczny (odpowiedź na pytanie „ile” często pomoże odpowiedzieć na pytania „co” i „jak”). Lingwistyka nie była wyjątkiem.

Celem moich zajęć jest krótkie ukazanie związku matematyki z taką dziedziną językoznawstwa jak językoznawstwo. Od lat 50. ubiegłego wieku matematyka jest wykorzystywana w językoznawstwie do tworzenia teoretycznego aparatu do opisu struktury języków (zarówno naturalnych, jak i sztucznych). Trzeba powiedzieć, że nie od razu znalazła tak praktyczne zastosowanie. Początkowo w językoznawstwie zaczęto stosować metody matematyczne w celu wyjaśnienia podstawowych pojęć językoznawstwa, jednak wraz z rozwojem technologii komputerowej takie założenie teoretyczne zaczęto stosować w praktyce. Rozwiązanie takich problemów, jak tłumaczenie maszynowe, wyszukiwanie informacji maszynowych i automatyczne przetwarzanie tekstu, wymagało zasadniczo nowego podejścia do języka. Dla lingwistów pojawiło się pytanie: jak nauczyć się przedstawiać wzorce językowe w formie, w której można je bezpośrednio zastosować w technologii. Popularny w naszych czasach termin „lingwistyka matematyczna” odnosi się do wszelkich badań językowych wykorzystujących metody dokładne (a koncepcja metod dokładnych w nauce jest zawsze ściśle związana z matematyką). Niektórzy naukowcy ostatnich lat uważają, że samo to wyrażenie nie może zostać podniesione do rangi terminu, gdyż nie oznacza ono żadnej szczególnej „lingwistyki”, a jedynie nowy kierunek nastawiony na doskonalenie, zwiększanie dokładności i wiarygodności metod badań języka. Lingwistyka posługuje się zarówno metodami ilościowymi (algebraicznymi), jak i nieilościowymi, co przybliża ją do logiki matematycznej, a w konsekwencji do filozofii, a nawet psychologii. Schlegel zauważył także wzajemne oddziaływanie języka i świadomości, a wybitny językoznawca początku XX wieku Ferdinand de Saussure (o jego wpływie na rozwój metod matematycznych w językoznawstwie opowiem później) powiązał budowę języka z jego przynależnością do ludzie. Współczesny badacz L. Perłowski idzie dalej, utożsamiając ilościowe cechy języka (na przykład liczbę rodzajów, przypadków) z cechami mentalności narodowej (więcej na ten temat w podrozdziale 2.2, „Metody statystyczne w językoznawstwie”).

Interakcja matematyki i językoznawstwa jest tematem wieloaspektowym i w mojej pracy nie będę skupiał się na nich wszystkich, ale przede wszystkim na ich aspektach aplikacyjnych.

Rozdział I.Historia zastosowań metod matematycznych w językoznawstwie

1.1 Pojawienie się językoznawstwa strukturalnegona przełomie XIX i XX wieku

Matematyczny opis języka opiera się na koncepcji języka jako mechanizmu, której korzenie sięgają słynnego szwajcarskiego językoznawcy z początku XX wieku, Ferdinanda de Saussure’a.

Wyjściowym ogniwem jego koncepcji jest teoria języka jako systemu składającego się z trzech części (sam język – język, przemówienie - hasło i aktywność mowy - język), w którym każde słowo (element systemu) jest rozpatrywane nie samo w sobie, ale w połączeniu z innymi członkami. Jak zauważył później inny wybitny lingwista, Duńczyk Louis Hjelmslev, Saussure „był pierwszym, który zażądał strukturalnego podejścia do języka, to znaczy naukowego opisu języka poprzez rejestrowanie relacji między jednostkami”.

Rozumiejąc język jako strukturę hierarchiczną, Saussure jako pierwszy postawił problem wartości i znaczenia jednostek językowych. Pojedynczych zjawisk i wydarzeń (powiedzmy historii pochodzenia poszczególnych słów indoeuropejskich) nie należy badać osobno, ale w systemie, w którym są one skorelowane z podobnymi składnikami.

Saussure uważał, że jednostką strukturalną języka jest słowo, „znak”, w którym dźwięk i znaczenie łączą się. Żaden z tych elementów nie istnieje bez siebie: native speaker rozumie więc różne odcienie znaczeniowe słowa wieloznacznego jako odrębny element całości strukturalnej, języka.

Tym samym w teorii F. de Saussure’a widać interakcję językoznawstwa z jednej strony z socjologią i psychologią społeczną (należy zauważyć, że w tym samym czasie rozwijała się fenomenologia Husserla, psychoanaliza Freuda, teoria względności Einsteina prowadzono eksperymenty nad formą i treścią w literaturze, muzyce i sztukach plastycznych), z drugiej strony - w matematyce (pojęcie systematyki odpowiada algebraicznemu pojęciu języka). Koncepcja ta zmieniła koncepcję interpretacji językowej jako takiej: zjawiska zaczęto interpretować nie w odniesieniu do przyczyn ich wystąpienia, ale w odniesieniu do teraźniejszości i przyszłości. Interpretacja nie jest już niezależna od intencji człowieka (mimo że intencje mogą być bezosobowe, „nieświadome” w freudowskim znaczeniu tego słowa).

Funkcjonowanie mechanizmu językowego objawia się aktywnością mowy rodzimych użytkowników języka. Wynikiem mowy są tzw. „teksty poprawne” – sekwencje jednostek mowy zachowujące się według określonych wzorców, z których wiele pozwala na opis matematyczny. Teoria metod opisu struktury składniowej zajmuje się badaniem sposobów matematycznego opisu poprawnych tekstów (przede wszystkim zdań). W takiej strukturze analogie językowe definiowane są nie za pomocą ich wrodzonych cech, ale za pomocą relacji systemowych („strukturalnych”).

Na Zachodzie idee Saussure'a rozwijają młodsi współcześni wielkiemu szwajcarskiemu lingwiście: w Danii - wspomniany już L. Hjelmslev, który dał początek algebraicznej teorii języka w swojej pracy „Podstawy teorii językoznawstwa”, w USA - E. Sapir, L. Bloomfield, C. Harris, w Czechach – rosyjski naukowiec na emigracji N. Trubetskoy.

Wzorce statystyczne w badaniu języka zaczął badać nikt inny jak twórca genetyki, Georg Mendel. Dopiero w 1968 roku filolodzy odkryli, że w ostatnich latach życia chętnie badał zjawiska językowe metodami matematycznymi. Mendel przeniósł tę metodę do językoznawstwa z biologii; w latach dziewięćdziesiątych XIX wieku jedynie najodważniejsi lingwiści i biolodzy deklarowali wykonalność takiej analizy. W archiwum klasztoru św. Tomasza w Brnie, gdzie Mendel był opatem, odnaleziono arkusze z kolumnami nazwisk kończącymi się na „mann”, „bauer”, „mayer” oraz pewnymi ułamkami i obliczeniami. Próbując odkryć formalne prawa pochodzenia nazwisk, Mendel dokonuje skomplikowanych obliczeń, w których bierze pod uwagę liczbę samogłosek i spółgłosek w języku niemieckim, całkowitą liczbę branych pod uwagę słów, liczbę nazwisk, itp.

W naszym kraju językoznawstwo strukturalne zaczęło się rozwijać mniej więcej w tym samym czasie, co na Zachodzie - na przełomie XIX i XX wieku. Równolegle z F. de Saussure’em koncepcja języka jako systemu rozwinęła się w pracach profesora Uniwersytetu Kazańskiego F.F. Fortunatow i I.A. Baudouina de Courtenay’a. Ten ostatni przez długi czas korespondował z de Saussurem; w związku z tym współpracowały ze sobą szkoły lingwistyki genewskiej i kazańskiej. Jeśli Saussure’a można nazwać ideologiem metod „dokładnych” w językoznawstwie, to Baudouin de Courtenay położył praktyczne podwaliny pod ich zastosowanie. Jako pierwszy wyodrębnił językoznawstwo (jak dokładny nauka wykorzystująca metody statystyczne i zależności funkcjonalne) na filologii (wspólnota dyscyplin humanitarnych badających kulturę duchową poprzez język i mowę). Sam naukowiec uważał, że „lingwistyka może przydać się w najbliższej przyszłości tylko wtedy, gdy uwolni się od obowiązkowej jedności z filologią i historią literatury”. Fonologia stała się „poligonem doświadczalnym” dla wprowadzenia metod matematycznych do językoznawstwa – dźwięki jako „atomy” systemu językowego, posiadające ograniczoną liczbę łatwo mierzalnych właściwości, były najwygodniejszym materiałem do formalnych, ścisłych metod opisu. Fonologia zaprzecza istnieniu znaczenia w dźwięku, dlatego w badaniach wyeliminowano czynnik „ludzki”. W tym sensie fonemy są jak obiekty fizyczne lub biologiczne.

Fonemy, jako najmniejsze elementy językowe akceptowalne dla percepcji, reprezentują odrębną sferę, odrębną „rzeczywistość fenomenologiczną”. Na przykład w angielski Dźwięk „t” można wymawiać na różne sposoby, ale we wszystkich przypadkach osoba mówiąca po angielsku będzie postrzegać go jako „t”. Najważniejsze jest to, że fonem będzie pełnił swoją główną - semantyczną - odróżniającą - funkcję. Co więcej, różnice między językami są takie, że odmiany jednego dźwięku w jednym języku mogą odpowiadać różnym fonemom w innym; na przykład „l” i „r” są różne w języku angielskim, podczas gdy w innych językach są odmianami tego samego fonemu (jak angielskie „t”, wymawiane jako przydechowe lub bezprzydechowe). Ogromne słownictwo każdego języka naturalnego to zbiór kombinacji znacznie mniejszej liczby fonemów. Na przykład w języku angielskim do wymówienia i zapisania około miliona słów używa się tylko 40 fonemów.

Dźwięki języka reprezentują systematycznie zorganizowany zestaw cech. W latach dwudziestych i trzydziestych XX wieku, za Saussure’em, Jacobson i N.S. Trubetskoy zidentyfikowali „cechy charakterystyczne” fonemów. Cechy te opierają się na budowie narządów mowy - języka, zębów, strun głosowych. Powiedzmy, że w języku angielskim różnica między „t” i „d” polega na obecności lub braku „głosu” (napięcia strun głosowych) oraz na poziomie głosu, który odróżnia jeden fonem od drugiego. Zatem fonologię można uznać za przykład ogólnej zasady języka opisanej przez Saussure’a: „W języku są tylko różnice”. Ważniejsze nie jest nawet to: różnica zwykle implikuje dokładne warunki, pomiędzy którymi się znajduje; ale w języku istnieją tylko różnice bez precyzyjnych warunków. Niezależnie od tego, czy weźmiemy pod uwagę „znaczące” czy „oznaczone” – w języku nie ma pojęć ani dźwięków, które istniały przed rozwinięciem się systemu językowego.

Zatem w językoznawstwie Saussure’a badane zjawisko rozumiane jest jako zbiór porównań i kontrastów języka. Język jest zarówno wyrazem znaczenia słów, jak i środkiem komunikacji, a te dwie funkcje nigdy się nie pokrywają. Możemy zauważyć naprzemienność formy i treści: kontrasty językowe definiują jej jednostki strukturalne, a jednostki te współdziałają, tworząc pewną znaczącą treść. Ponieważ elementy języka są przypadkowe, podstawą nie może być ani kontrast, ani kombinacja. Oznacza to, że w języku cechy charakterystyczne tworzą kontrast fonetyczny na różnym poziomie zrozumienia, fonemy łączą się w morfemy, morfemy w słowa, słowa w zdania itp. W każdym razie cały fonem, słowo, zdanie itp. jest czymś więcej niż sumą jego części.

Saussure zaproponował ideę nowej, odrębnej od językoznawstwa nauki XX wieku, badającej rolę znaków w społeczeństwie. Saussure nazwał tę naukę semiologią (od greckiego „semeion” - znak). „Nauka” semiotyki, która rozwinęła się w Europie Wschodniej w latach dwudziestych i trzydziestych XX wieku oraz w Paryżu w latach pięćdziesiątych i sześćdziesiątych XX wieku, rozszerzyła badanie języka i struktur językowych na ustalenia literackie komponowane (lub formułowane) przy użyciu tych struktur. Ponadto u schyłku swojej kariery, równolegle z kursami lingwistyki ogólnej, Saussure rozpoczął „semiotyczną” analizę późnej poezji rzymskiej, próbując odkryć celowo skomponowane anagramy nazw własnych. Metoda ta była pod wieloma względami przeciwieństwem racjonalizmu w analizie językowej: była próbą systemowego badania problemu „prawdopodobieństwa” w języku. Takie badania pomagają skupić się na „materialnej stronie” prawdopodobieństwa; „słowo-klucz”, którego anagramu szuka Saussure, jak twierdzi Jean Starobinsky, „narzędzie dla poety, a nie źródło życia wiersza”. Wiersz służy odwróceniu dźwięków słowa kluczowego. Według Starobińskiego w tej analizie „Saussure nie zagłębia się w poszukiwanie ukrytych znaczeń”. Wręcz przeciwnie, w jego twórczości zauważalna jest chęć uniknięcia zagadnień związanych ze świadomością: „ponieważ poezja wyraża się nie tylko w słowach, ale także w tym, co te słowa generują, wykracza poza kontrolę świadomości i zależy wyłącznie od praw języka” (patrz Załącznik 1).

Podjęta przez Saussure'a próba badania nazw własnych w późnej poezji rzymskiej podkreśla jeden z elementów jego analizy językowej - arbitralność znaków, a także formalną istotę językoznawstwa Saussure'a, która wyklucza możliwość analizy znaczenia. Todorov konkluduje, że współcześnie prace Saussure’a wydają się niezwykle konsekwentne w niechęci do badania symboliki zjawiska, które ma jasno określone znaczenie [Załącznik 1]. Badając anagramy, Saussure zwraca uwagę jedynie na powtórzenia, ale nie na poprzednie warianty. . . . Studiując Nibelungów, identyfikuje symbole tylko po to, aby przypisać je do błędnych odczytań: jeśli są niezamierzone, symbole nie istnieją. Przecież w swoich pismach z zakresu językoznawstwa ogólnego sugeruje istnienie semiologii opisującej więcej niż tylko znaki językowe; ale założenie to jest ograniczone faktem, że semiologia może opisywać jedynie przypadkowe, arbitralne znaki.

Jeżeli rzeczywiście tak jest, to tylko dlatego, że nie potrafił sobie wyobrazić „intencji” bez przedmiotu; nie potrafił całkowicie pokonać przepaści pomiędzy formą a treścią – w jego pracach stało się to pytaniem. Zamiast tego odwoływał się do „legalności językowej”. Usytuowany pomiędzy, z jednej strony, dziewiętnastowiecznymi koncepcjami opartymi na historii i subiektywnych domysłach oraz opartymi na tych pojęciach metodami interpretacji przygodnej, a z drugiej, koncepcjami strukturalistycznymi, zacierającymi opozycję pomiędzy formą i treścią (podmiotem i treścią) obiekt), znaczenie i korzenie w strukturalizmie, psychoanalizie, a nawet mechanice kwantowej – pisma Ferdinanda de Saussure’a na temat językoznawstwa i semiotyki stanowią punkt zwrotny w badaniu znaczenia w języku i kulturze.

Rosyjscy naukowcy byli także reprezentowani na Pierwszym Międzynarodowym Kongresie Lingwistów w Hadze w 1928 roku. S. Kartsevsky, R. Jacobson i N. Trubetskoy sporządzili raport, w którym rozważono hierarchiczną strukturę języka - w duchu najnowocześniejszych idei początku ubiegłego wieku. Jacobson w swoich pracach rozwinął ideę Saussure’a, że ​​podstawowe elementy języka należy badać przede wszystkim w powiązaniu z ich funkcjami, a nie przyczynami ich występowania.

Niestety, po dojściu Stalina do władzy w 1924 r., lingwistyka krajowa, podobnie jak wiele innych nauk, została odrzucona. Wielu utalentowanych naukowców zostało zmuszonych do emigracji, wydalonych z kraju lub zginęło w obozach. Dopiero od połowy lat pięćdziesiątych XX w. możliwy stał się pewien pluralizm teorii – więcej na ten temat w podrozdziale 1.2.

1.2 Zastosowanie metod matematycznych w językoznawstwie w drugiej połowie XX wieku

Do połowy XX wieku powstały cztery światowe szkoły językowe, z których każda okazała się przodkiem pewnej „dokładnej” metody. Leningradzka Szkoła Fonologiczna(jej założycielem był uczeń Baudouina de Courtenaya L.V. Shcherba) jako główne kryterium uogólniania dźwięku w formie fonemu wykorzystał eksperyment psycholingwistyczny oparty na analizie mowy rodzimych użytkowników języka.

Naukowcy Praskie Koło Językowe w szczególności - jej założyciel N.S. Trubeckoj, który wyemigrował z Rosji, rozwinął teorię opozycji - semantyczną strukturę języka opisywali oni jako zbiór opozycyjnie skonstruowanych jednostek semantycznych - semes. Teorię tę wykorzystywano w badaniu nie tylko języka, ale także kultury artystycznej.

Ideolodzy Amerykański deskryptywizm byli lingwiści L. Bloomfield i E. Sapir. Język został przedstawiony deskryptywistom jako zbiór wypowiedzi mowy, które były głównym przedmiotem ich badań. Skupiali się na zasadach opisu naukowego (stąd nazwa) tekstów: badaniu organizacji, układu i klasyfikacji ich elementów. Formalizacja procedur analitycznych z zakresu fonologii i morfologii (opracowanie zasad studiowania języka na różnych poziomach, analiza dystrybucyjna, metoda składowych bezpośrednich itp.) doprowadziła do sformułowania ogólnych zagadnień modelowania językowego. Niedbałość o plan treści języka, a także o stronę paradygmatyczną języka, nie pozwoliły deskryptywistom na pełną interpretację języka jako systemu.

W latach 60. XX w. rozwinęła się teoria gramatyk formalnych, która powstała głównie dzięki pracom amerykańskiego filozofa i językoznawcy N. Chomsky'ego. Słusznie uważany jest za jednego z najsłynniejszych współczesnych naukowców i osób publicznych; poświęconych mu jest wiele artykułów, monografii, a nawet pełnometrażowy film dokumentalny. Po zasadniczo nowym sposobie opisywania struktury składniowej wymyślonym przez Chomsky'ego - gramatyce generatywnej (generatywnej) - odpowiedni ruch w językoznawstwie nazwano generatywizm.

Chomsky, potomek imigrantów z Rosji, od 1945 roku studiował lingwistykę, matematykę i filozofię na Uniwersytecie Pensylwanii, pozostając pod silnym wpływem swojego nauczyciela Zeliga Harrisa – podobnie jak Harris, Chomsky uważał i uważa swoje poglądy polityczne za bliskie anarchizmowi (do dziś jest znany jako krytyk istniejącego systemu politycznego USA i jako jeden z duchowych przywódców antyglobalizmu).

Pierwszą poważną pracą naukową Chomsky'ego była jego praca magisterska „Morfologia współczesnego języka hebrajskiego » (1951), pozostał niepublikowany. Chomsky uzyskał doktorat na Uniwersytecie Pensylwanii w 1955 r., ale większość badań stanowiących podstawę jego rozprawy doktorskiej (opublikowanej w całości dopiero w 1975 r. pod tytułem „The Logical Structure of Linguistic Theory”) i jego pierwszej monografii „Syntaktyka Struktury” (Struktury syntaktyczne, 1957, przeł. rosyjski 1962), wykonywano na Uniwersytecie Harvarda w latach 1951-1955. W tym samym 1955 roku naukowiec przeniósł się do Massachusetts Institute of Technology, gdzie w 1962 roku został profesorem.

W swoim rozwoju teoria Chomsky'ego przeszła kilka etapów.

W swojej pierwszej monografii „Struktury syntaktyczne” naukowiec przedstawił język jako mechanizm generowania nieskończonej liczby zdań przy użyciu skończonego zestawu środków gramatycznych. Do opisu właściwości językowych zaproponował koncepcje głębokich (ukrytych przed bezpośrednią percepcją i generowanych przez system rekurencyjnych, czyli reguł, które można stosować wielokrotnie) i powierzchniowych (bezpośrednio postrzeganych) struktur gramatycznych, a także przekształceń opisujących przejście od struktury głębokie do struktur powierzchniowych. Jedna struktura głęboka może odpowiadać kilku strukturom powierzchniowym (na przykład struktura pasywna Dekret podpisuje prezydent pochodzące z tej samej głębokiej struktury, co konstrukt aktywny Prezydent podpisuje dekret) i odwrotnie (więc niejednoznaczność Matka kocha córkę opisywana jako wynik zbiegu struktur powierzchniowych, które sięgają dwóch różnych głębokich, z których w jednej matka jest tą, która kocha córkę, a w drugiej tą, którą kocha córka).

Standardową teorią Chomsky'ego jest model Aspektów przedstawiony w książce Chomsky'ego Aspects of the Theory of Syntax. W modelu tym po raz pierwszy do teorii formalnej wprowadzono zasady interpretacji semantycznej, które nadają znaczenie głębokim strukturom. W „Aspektach” przeciwstawia się kompetencję językową posługiwaniu się językiem (performansowi), przyjmuje się tzw. hipotezę Katza-Postala o zachowaniu znaczenia podczas transformacji, w związku z czym wyklucza się koncepcję transformacji opcjonalnej, a aparat wprowadzono cechy syntaktyczne opisujące zgodność leksykalną.

W latach 70. Chomsky pracował nad teorią kontroli i wiązania (teoria GB – od słów rząd I wiążący) - bardziej ogólny niż poprzedni. Naukowiec porzucił w nim określone zasady opisujące struktury syntaktyczne poszczególnych języków. Wszystkie transformacje zostały zastąpione jedną uniwersalną transformacją ruchu. W ramach teorii GB istnieją również moduły prywatne, z których każdy odpowiada za swoją część gramatyki.

Jeszcze w 1995 roku Chomsky przedstawił minimalistyczny program, w którym język ludzki jest opisywany jako podobny do języka maszynowego. To tylko program, a nie model czy teoria. Chomsky identyfikuje w nim dwa główne podsystemy aparatu języka ludzkiego: leksykon i system komputerowy, a także dwa interfejsy - fonetyczny i logiczny.

Gramatyki formalne Chomsky'ego stały się klasyczne w opisie nie tylko języków naturalnych, ale także sztucznych - w szczególności języków programowania. Rozwój językoznawstwa strukturalnego w drugiej połowie XX wieku można słusznie uznać za „rewolucję Chomsky’ego”.

Moskiewska Szkoła Fonologiczna, którego przedstawicielami byli A.A. Reformatsky, V.N. Sidorow, P.S. Kuzniecow, A.M. Sukhotin, R.I. Avanesov zastosował podobną teorię do badania fonetyki. Stopniowo „precyzyjne” metody zaczynają być stosowane nie tylko w fonetyce, ale także w składni. Zarówno lingwiści, jak i matematycy, zarówno w kraju, jak i za granicą, zaczynają badać strukturę języka. W latach pięćdziesiątych i sześćdziesiątych XX wieku w ZSRR rozpoczął się nowy etap interakcji matematyki i językoznawstwa, związany z rozwojem systemów tłumaczenia maszynowego.

Impulsem do rozpoczęcia tej pracy w naszym kraju były pierwsze osiągnięcia w dziedzinie tłumaczeń maszynowych w USA (chociaż pierwsze zmechanizowane urządzenie do tłumaczenia P.P. Smirnowa-Trojanskiego zostało wynalezione w ZSRR już w 1933 r., ponieważ było prymitywne, nie rozpowszechniło się). W 1947 r. A. Butt i D. Britten opracowali kod komputerowego tłumaczenia słowo po słowie, rok później R. Richens zaproponował zasadę podziału słów na tematy i końcówki w tłumaczeniu maszynowym. Te lata znacznie różniły się od współczesnych. Były to bardzo duże i drogie maszyny, zajmujące całe pomieszczenia, a do ich konserwacji wymagana była duża kadra inżynierów, operatorów i programistów. Zasadniczo komputery te służyły do ​​wykonywania obliczeń matematycznych na potrzeby instytucji wojskowych - nowości w matematyce, fizyce i technologii służyły przede wszystkim sprawom wojskowym. Na wczesnych etapach rozwój MP był aktywnie wspierany przez wojsko, przy czym (w warunkach zimnej wojny) w USA rozwinął się kierunek rosyjsko-angielski, a w ZSRR kierunek anglo-rosyjski.

W styczniu 1954 w Massachusetts uczelnia techniczna Odbył się „Eksperyment Georgetown” - pierwsza publiczna demonstracja tłumaczenia z języka rosyjskiego na angielski na maszynie IBM-701. Streszczenie wiadomości o pomyślnym zakończeniu eksperymentu, sporządzone przez D.Yu. Panow, ukazał się w Russian Journal of Mathematics, 1954, nr 10: „Tłumaczenie z jednego języka na drugi za pomocą maszyny: raport z pierwszego udanego testu”.

D. Yu. Panov (ówczesny dyrektor Instytutu Informacji Naukowej - INI, później VINITI) przyciągnął do pracy nad tłumaczeniem maszynowym I. K. Belską, która później kierowała grupą tłumaczeń maszynowych w Instytucie Matematyki Precyzyjnej i Informatyki Uniwersytetu im. Akademia Nauk ZSRR. Pierwsze doświadczenia z tłumaczeniem z języka angielskiego na rosyjski przy użyciu maszyny BESM sięgają końca 1955 roku. Programy dla BESM zostały opracowane przez N.P. Trifonow i L.N. Korolewa, którego rozprawa doktorska poświęcona była metodom konstruowania słowników do tłumaczenia maszynowego.

Równolegle prace nad tłumaczeniem maszynowym prowadzono na Wydziale Matematyki Stosowanej Instytutu Matematycznego Akademii Nauk ZSRR (obecnie Instytut Matematyki Stosowanej M.V. Keldysha Rosyjskiej Akademii Nauk). Z inicjatywy matematyka A.A. Lapunowa. Do pracy przy tłumaczeniu tekstów za pomocą maszyny Strela z francuski w języku rosyjskim przyciągnął absolwenta Instytutu Matematycznego Steklov O.S. Kulagin i jego uczniowie T.D. Ventzel i N.N. Ricco. Pomysły Lapunowa i Kułaginy dotyczące możliwości wykorzystania technologii do tłumaczenia z jednego języka na drugi zostały opublikowane w czasopiśmie Nature, 1955, nr 8. Od końca 1955 roku dołączył do nich T.N. Moloshnaya, a następnie przystąpiono do niezależna praca na algorytmie tłumaczenia angielsko-rosyjskiego.

R. Frumkina, która w tym czasie zajmowała się tłumaczeniem algorytmicznym z języka hiszpańskiego, wspomina, że ​​na tym etapie prac trudno było podjąć jakiekolwiek spójne kroki. Znacznie częściej musiałem kierować się doświadczeniem heurystycznym – własnym lub kolegów.

Jednak pierwsza generacja systemów tłumaczenia maszynowego była bardzo niedoskonała. Wszystkie opierały się na algorytmach tłumaczenia konsekutywnego „słowo po słowie”, „fraza po frazie” – w żaden sposób nie brano pod uwagę powiązań semantycznych między słowami i zdaniami. Można podać na przykład następujące zdania: „ John szukał swojego pudełka z zabawkami.Wreszcie znalazł. Pudełko było w piórze.Jan był bardzo szczęśliwy. (John szukał swojego pudełka z zabawkami. W końcu je znalazł. Pudełko było w kojcu. John był bardzo szczęśliwy.)”. „Pióro” w tym kontekście nie jest „długopisem” (przyborem do pisania), ale „kojcem” ( kojec dla dziecka). Znajomość synonimów, antoniów i znaczeń przenośnych jest trudna do wprowadzenia do komputera. Obiecującym kierunkiem był rozwój systemów maszynowych przeznaczonych do użytku przez tłumacza.

Z biegiem czasu systemy bezpośredniego tłumaczenia zostały zastąpione systemami T (od angielskiego słowa „transfer” - transformacja), w których tłumaczenie odbywało się na poziomie struktur składniowych. Algorytmy T-system wykorzystały mechanizm, który pozwolił im zbudować strukturę syntaktyczną zgodnie z zasadami gramatyki języka zdania wejściowego (podobnie jak uczą języka obcego w szkole średniej), a następnie zsyntetyzować zdanie wyjściowe, przekształcenie struktury syntaktycznej i podstawienie niezbędnych słów ze słownika.

Lapunow mówił o tłumaczeniu, wydobywając znaczenie przetłumaczonego tekstu i przedstawiając go w innym języku. Za najbardziej zaawansowane wciąż uważa się podejście do budowania systemów tłumaczenia maszynowego polegające na uzyskaniu reprezentacji semantycznej zdania wejściowego poprzez jego analizę semantyczną i syntezę zdania wejściowego na podstawie powstałej reprezentacji semantycznej. Takie systemy nazywane są systemami I (od słowa „interlingua”). Jednocześnie zadanie ich stworzenia, rozpoczęte na przełomie lat 50. i 60., nie zostało do dziś w pełni rozwiązane, pomimo wysiłków Międzynarodowej Federacji IFIP – globalnej społeczności naukowców zajmujących się przetwarzaniem informacji.

Naukowcy zastanawiali się, jak sformalizować i zbudować algorytmy pracy z tekstami, jakie słowniki wpisać do maszyny, jakie wzorce językowe zastosować w tłumaczeniu maszynowym. Tradycyjne językoznawstwo nie miało takich pomysłów – nie tylko pod względem semantyki, ale także pod względem składni. Dla żadnego języka w tamtym czasie nie istniały listy struktur syntaktycznych, nie badano warunków ich zgodności i wymienności, nie opracowano zasad konstruowania dużych jednostek struktury syntaktycznej z mniejszych elementów składowych.

Potrzeba stworzenia podstaw teoretycznych dla tłumaczenia maszynowego doprowadziła do powstania i rozwoju językoznawstwa matematycznego. Wiodącą rolę w tej kwestii w ZSRR odegrali matematycy A.A. Lapunow, OS Kulagina, VA Uspienski, lingwiści V.Yu. Rosenzweig, P.S. Kuzniecow, R.M. Frumkina, AA Reformatsky, I.A. Melchuk, V.V. Iwanow. Rozprawa Kułaginy poświęcona była badaniu formalnej teorii gramatyk (jednocześnie z N. Chomskim w USA), Kuzniecow postawił problem aksjomatyzacji językoznawstwa, sięgając do dzieł F.F. Fortunatowa.

6 maja 1960 roku podjęto Uchwałę Prezydium Akademii Nauk ZSRR „W sprawie rozwoju strukturalnych i matematycznych metod badań języków”, a w Instytucie Lingwistyki i Instytucie Języka Rosyjskiego utworzono odpowiednie zakłady. Od 1960 roku wiodące uniwersytety humanitarne w kraju - Wydział Filologiczny Moskiewskiego Uniwersytetu Państwowego, Leninrad, Uniwersytety Nowosybirskie, Moskiewski Państwowy Instytut Pedagogiczny Języków Obcych - rozpoczęły szkolenie personelu w zakresie automatycznego przetwarzania tekstu.

Jednocześnie prace nad tłumaczeniem maszynowym tego okresu, zwanym „klasycznym”, mają charakter bardziej teoretyczny niż praktyczny. Ekonomicznie wydajne systemy Tłumaczenie maszynowe zaczęto tworzyć dopiero w latach osiemdziesiątych ubiegłego wieku. Opowiem o tym później, w sekcji 2.1, „Tłumaczenie maszynowe”.

Lata 60. i 70. XX wieku to głęboki rozwój teoretyczny wykorzystujący metody teorii mnogości i logiki matematycznej, takie jak teoria pola i teoria zbiorów rozmytych.

Autorem teorii pola w językoznawstwie był radziecki poeta, tłumacz i lingwista V.G. Upomnienie. Początkowo rozwijał swoją teorię w oparciu o język niemiecki. W Admoni pojęcie „pole” oznacza dowolny, niepusty zbiór elementów językowych (na przykład „pole leksykalne”, „pole semantyczne”).

Struktura pola jest niejednorodna: składa się z rdzenia, którego elementy posiadają pełny zestaw cech definiujących zbiór, oraz peryferii, której elementy mogą posiadać zarówno cechy danego zbioru (nie wszystkie) i sąsiadujące. Podam przykład ilustrujący to stwierdzenie: powiedzmy w języku angielskim pole słów złożonych („day-dream” - „sen” trudno oddzielić od pola fraz („gaz łzawiący” - „gaz łzawiący”) .

Wspomniana już teoria zbiorów rozmytych jest ściśle powiązana z teorią pola. W ZSRR jego uzasadnieniem przeprowadzili lingwiści V.G. Admoni, I.P. Iwanowa, G.G. Pochentsova, ale jego założycielem był amerykański matematyk L. Zade, który w 1965 roku opublikował artykuł „Fuzzy Logic”. Podając matematyczne uzasadnienie teorii zbiorów rozmytych, Zadeh rozpatrzył je na materiale językowym.

W tej teorii mówimy nie tyle o przynależności elementów do danego zbioru (Aa), ile o stopniu tej przynależności (Aa), gdyż elementy peryferyjne mogą w takim czy innym stopniu należeć do kilku dziedzin. Zade (Lofti-zade) pochodził z Azerbejdżanu, do 12 roku życia miał praktykę komunikowania się w czterech językach – azerbejdżańskim, rosyjskim, angielskim i perskim – i posługiwał się trzema różnymi alfabetami: cyrylicą, łaciną i arabskim. Kiedy naukowca pyta się, co mają wspólnego teoria zbiorów rozmytych i lingwistyka, nie zaprzecza temu powiązaniu, ale wyjaśnia: „Nie jestem pewien, czy studiowanie tych języków miało duży wpływ na moje myślenie. Jeśli coś takiego miało miejsce, to być może podświadomie.” W młodości Zadeh uczył się w Teheranie w szkole prezbiteriańskiej, a po II wojnie światowej wyemigrował do Stanów Zjednoczonych. „Nie chodzi o to, czy jestem Amerykaninem, Rosjaninem, Azerbejdżańczykiem czy kimś innym” – powiedział w jednej z rozmów – „ukształtują mnie te wszystkie kultury i narody i czuję się wśród nich całkiem dobrze”. Jest w tych słowach coś na kształt teorii zbiorów rozmytych – odejście od jednoznacznych definicji i ostrych kategorii.

W naszym kraju w latach 70. tłumaczono i studiowano dzieła zachodnich lingwistów XX wieku. I.A. Melchuk przetłumaczył dzieła N. Chomskiego na język rosyjski. nie dotyczy Slyusareva w swojej książce „Teoria F. de Saussure’a w świetle współczesnej językoznawstwa” łączy postulaty nauczania Saussure’a z aktualnymi problemami językoznawstwa lat 70. Wyłania się tendencja do dalszej matematyzacji językoznawstwa. Wiodące krajowe uniwersytety kształcą w specjalności „Lingwistyka matematyczna (teoretyczna, stosowana)”. Jednocześnie na Zachodzie następuje gwałtowny skok w rozwoju technologii komputerowej, który wymaga coraz to nowych podstaw językowych.

W latach 80. profesor Instytutu Orientalistyki Akademii Nauk Yu.K. Lekomcew, analizując język językoznawstwa poprzez analizę diagramów, tablic i innych rodzajów notacji stosowanych w opisach językowych, za odpowiednie do tych celów uważa systemy matematyczne (głównie systemy algebry macierzowej).

Tym samym przez cały XX wiek następowała konwergencja nauk ścisłych i humanistycznych. Interakcja matematyki z językoznawstwem coraz częściej znajdowała praktyczne zastosowanie. Więcej na ten temat w następnym rozdziale.

Rozdział 2. Wybrane przykłady zastosowania matematyki w językoznawstwie

2.1 Tłumaczenie maszynowe

Idea tłumaczenia z jednego języka na drugi za pomocą uniwersalnego mechanizmu zrodziła się kilka wieków wcześniej, niż rozpoczęły się pierwsze osiągnięcia w tej dziedzinie – już w 1649 roku Rene Descartes zaproponował ideę języka, w którym równoważne idee różnych języków zostanie wyrażony jednym symbolem. Pierwsze próby realizacji tej idei w latach 30.-40. XX w., początek rozwoju teoretycznego w połowie stulecia, udoskonalanie systemów tłumaczeniowych wykorzystujących technologię w latach 70. i 80. XX w., szybki rozwój technologii tłumaczeniowej w ostatniej dekadzie – te to etapy rozwoju tłumaczenia maszynowego jako branży. To dzięki pracom nad tłumaczeniem maszynowym lingwistyka obliczeniowa rozwinęła się jako nauka.

Wraz z rozwojem technologii komputerowej na przełomie lat 70. i 80. badacze postawili sobie bardziej realistyczne i opłacalne cele - maszyna nie stała się konkurentem (jak wcześniej zakładano), ale asystentem ludzkiego tłumacza. Tłumaczenie maszynowe przestaje służyć wyłącznie celom wojskowym (wszystkie sowieckie i amerykańskie wynalazki i badania, skupione przede wszystkim na języku rosyjskim i angielskim, w mniejszym lub większym stopniu przyczyniły się do zimnej wojny). W 1978 roku za pośrednictwem sieci Arpa transmitowano słowa języka naturalnego, a sześć lat później w Stanach Zjednoczonych pojawiły się pierwsze programy tłumaczeniowe dla mikrokomputerów.

W latach 70. Komisja Wspólnot Europejskich zakupiła angielsko-francuską wersję komputerowego tłumacza Systran, zamawiając także wersję francusko-angielską i włosko-angielską oraz rosyjsko-angielski system tłumaczeń używany przez amerykańskie siły zbrojne. W ten sposób powstały podwaliny pod projekt EUROTRA.

O odrodzeniu tłumaczeń maszynowych w latach 70-80. Następujące fakty wskazują: Komisja Wspólnot Europejskich (CEC) kupuje angielsko-francuską wersję Systran, a także system tłumaczeń z rosyjskiego na angielski (ten ostatni opracowany po raporcie ALPAC i nadal używany przez amerykańskie linie lotnicze Siła i NASA); ponadto CEC zleca opracowanie wersji francusko-angielskiej i włosko-angielskiej. Jednocześnie w Japonii następuje szybki rozwój działalności w zakresie tworzenia systemów tłumaczenia maszynowego; w USA Panamerykańska Organizacja Zdrowia (PAHO) zleca rozwój kierunku hiszpańsko-angielskiego (system SPANAM); Siły Powietrzne Stanów Zjednoczonych finansują rozwój systemu tłumaczenia maszynowego w Centrum Badań Lingwistycznych na Uniwersytecie Teksasu w Austin; Grupa TAUM w Kanadzie czyni znaczne postępy w rozwoju swojego systemu METEO (do tłumaczenia raportów pogodowych). Wiele projektów rozpoczęło się w latach 70-80. następnie rozwinęły się w pełnoprawne systemy komercyjne.

W latach 1978-93 Stany Zjednoczone wydały 20 milionów dolarów na badania w dziedzinie tłumaczeń maszynowych, 70 milionów w Europie i 200 milionów w Japonii.

Jednym z nowych rozwiązań jest technologia TM (pamięć tłumaczeniowa), która działa na zasadzie akumulacji: podczas procesu tłumaczenia zapisywany jest oryginalny segment (zdanie) i jego tłumaczenie, w wyniku czego powstaje językowa baza danych; Jeśli w nowo przetłumaczonym tekście zostanie znaleziony segment identyczny lub podobny do oryginału, zostanie on wyświetlony wraz z tłumaczeniem i wskazaniem procentowego dopasowania. Tłumacz podejmuje wówczas decyzję (edytuje, odrzuca lub akceptuje tłumaczenie), której wynik zostaje zapisany w systemie, dzięki czemu nie ma potrzeby tłumaczenia tego samego zdania dwa razy. Obecnie twórcą znanego komercyjnego systemu opartego na technologii TM jest system TRADOS (rok założenia 1984).

Obecnie kilkadziesiąt firm rozwija komercyjne systemy tłumaczenia maszynowego, m.in.: Systran, IBM, L&H (Lernout & Hauspie), Transparent Language, Cross Language, Trident Software, Atril, Trados, Caterpillar Co., LingoWare; Oprogramowanie Ata; Lingvistica b.v. itp. Można teraz korzystać z usług automatycznych tłumaczy bezpośrednio w sieci: alphaWorks; Tłumacz online PROMT; LogoMedia.net; Usługa tłumaczeń Babel Fish firmy AltaVista; InfiniT.com; Tłumaczenie Internetu.

Skuteczne komercyjnie systemy tłumaczeniowe pojawiły się w naszym kraju w drugiej połowie lat 80-tych. Rozszerzyło się samo pojęcie tłumaczenia maszynowego (zaczęło ono obejmować „tworzenie szeregu automatycznych i zautomatyzowanych systemów i urządzeń, które w sposób automatyczny lub półautomatyczny wykonują cały cykl tłumaczenia lub poszczególne zadania w dialogu z człowiekiem”), oraz Zwiększyły się alokacje rządowe na rozwój tej branży.

Głównymi językami krajowych systemów tłumaczeniowych są rosyjski, angielski, niemiecki, francuski i japoński. Ogólnounijne Centrum Tłumaczeń (VTsP) opracowało system tłumaczenia z języka angielskiego i niemieckiego na język rosyjski na komputerze EC-1035-ANRP. Składał się z trzech słowników – wejściowego angielskiego i niemieckiego oraz wyjściowego rosyjskiego – w ramach jednego oprogramowania. Istniało kilka wymiennych słowników specjalistycznych - dotyczących technologii komputerowej, programowania, elektroniki radiowej, inżynierii mechanicznej, rolnictwa, metalurgii. System mógł działać w dwóch trybach – automatycznym i interaktywnym, gdy na ekranie wyświetlał się tekst źródłowy oraz tłumaczenie fraza po zdaniu, które można było edytować. Szybkość tłumaczenia tekstu na ANRAP (od początku pisania do końca drukowania) wynosiła około 100 stron na godzinę.

W 1989 roku powstała rodzina tłumaczy komercyjnych, taka jak SPRINT, współpracująca z językiem rosyjskim, angielskim, niemieckim i japońskim. Ich główną zaletą była kompatybilność z komputerem IBM PC - w ten sposób osiągnięto krajowe systemy tłumaczenia maszynowego poziom międzynarodowy jakość. Jednocześnie opracowywany jest system tłumaczenia maszynowego z języka francuskiego na język rosyjski FRAP, który obejmuje 4 etapy analizy tekstu: grafemiczny, morfologiczny, syntaktyczny i semantyczny. W Leningradzkim Państwowym Instytucie Pedagogicznym im. Herzen pracował nad czterojęzycznym (angielski, francuski, hiszpański, rosyjski) systemem SILOD-MP (w trybie przemysłowym używano słowników angielsko-rosyjskiego i francusko-rosyjskiego).

Do tłumaczeń specjalistycznych tekstów z zakresu elektrotechniki służył system ETAP-2. Analizę tekstu wejściowego w nim przeprowadzono na dwóch poziomach – morfologicznym i składniowym. Słownik ETAP-2 zawierał około 4 tys. haseł; etap transformacji tekstu - około 1000 reguł (96 ogólnych, 342 prywatnych, reszta to słownik). Wszystko to zapewniało zadowalającą jakość tłumaczenia (np. tytuł patentu „Optyczny układ siatki fazowej i urządzenie sprzęgające posiadające taki układ” został przetłumaczony jako „Optyczny układ siatki fazowej i urządzenie łączące z takim urządzeniem” – pomimo tautologii, znaczenie zostało zachowane).

W Mińskim Pedagogicznym Instytucie Języków Obcych wynaleziono system maszynowego tłumaczenia tytułów na podstawie angielsko-rosyjskiego słownika form i zwrotów słownych), a w Instytucie Orientalistyki Akademii Nauk system tłumaczeniowy z japońskiego na rosyjski został wynaleziony. Pierwszy automatyczny serwis słownikowy i terminologiczny (SLOTERM) dla technologii komputerowej i programowania, stworzony w Moskiewskim Instytucie Badawczym Systemów Automatyki, zawierał około 20 000 terminów w słowniku objaśniającym i słownikach specjalnych do badań językowych.

Systemy tłumaczenia maszynowego stopniowo zaczęto wykorzystywać nie tylko zgodnie z ich przeznaczeniem, ale także jako ważny element systemów automatycznego uczenia się (do nauczania tłumaczenia, monitorowania wiedzy ortograficznej i gramatycznej).

Lata 90. przyniosły ze sobą szybki rozwój rynku komputerów osobistych (od komputerów stacjonarnych po kieszonkowe) i technologii informatycznych oraz powszechne korzystanie z Internetu (który staje się coraz bardziej międzynarodowy i wielojęzyczny). Wszystko to sprawiło, że istnieje zapotrzebowanie na dalszy rozwój automatycznych systemów tłumaczeniowych. Od początku lat 90-tych. Na rynek systemów PC wkraczają także krajowi deweloperzy.

W lipcu 1990 roku na wystawie PC Forum w Moskwie zaprezentowano pierwszy w Rosji komercyjny system tłumaczenia maszynowego o nazwie PROMT (PROgrammer's Machine Translation). W 1991 roku utworzono spółkę JSC [!!!] zgodnie z ustawą federalną-99 z dnia 05.05.2013 r 2014 formę tę zastąpiła niepubliczna spółka akcyjna] „PROMT MT”, a już w 1992 roku firma PROMT zwyciężyła w konkursie NASA na dostawę systemów MP (PROMT była jedyną nieamerykańską firmą w tym konkursie W 1992 r. „PROMT” produkuje całą rodzinę systemów pod nową nazwą STYLUS do tłumaczeń z języka angielskiego, niemieckiego, francuskiego, włoskiego i hiszpańskiego na język rosyjski oraz z języka rosyjskiego na angielski, a w 1993 r. pierwszy na świecie system tłumaczenia maszynowego. dla Windows powstał na bazie STYLUSA 2.0 wydano wersję dla Windows 3.X/95/NT, a w latach 1995-1996 trzecią generację systemów tłumaczenia maszynowego, w pełni 32-bitową STYLUS 3.0 dla Windows 95/NT, wprowadzono, jednocześnie opracowując zupełnie nowe, pierwsze w świecie systemy tłumaczenia maszynowego rosyjsko-niemieckiego i rosyjsko-francuskiego.

W 1997 roku podpisano umowę z francuską firmą Softissimo na tworzenie systemów tłumaczeniowych z francuskiego na niemiecki i angielski i odwrotnie, a w grudniu tego roku wypuszczono pierwszy na świecie niemiecko-francuski system tłumaczeniowy. W tym samym roku firma PROMT wypuściła system zaimplementowany w technologii Gigant, obsługujący kilka kierunków językowych w jednej powłoce, a także specjalny tłumacz do pracy w Internecie WebTranSite.

W 1998 roku wypuszczono całą konstelację programów pod nową nazwą PROMT 98. Rok później firma PROMT wypuściła dwie nowości: unikalny pakiet oprogramowania do pracy w Internecie - PROMT Internet oraz tłumacz dla korporacyjnych systemów pocztowych - Tłumacz poczty PROMT. W listopadzie 1999 roku PROMT został uznany za najlepszy system tłumaczenia maszynowego spośród testowanych przez francuski magazyn PC Expert, pokonując konkurencję pod względem łącznych wskaźników o 30%. Dla klientów korporacyjnych opracowano także specjalne rozwiązania serwerowe - korporacyjny serwer tłumaczeń PROMT Translation Server (PTS) oraz rozwiązanie internetowe PROMT Internet Translation Server (PITS). W 2000 roku firma PROMT zaktualizowała całą swoją linię oprogramowania, wypuszczając nową generację systemów MP: PROMT Translation Office 2000, PROMT Internet 2000 i Magic Gooddy 2000.

Tłumaczenie online przy wsparciu systemu PROMT jest wykorzystywane na wielu stronach krajowych i zagranicznych: Tłumacz Online PROMT, InfiniT.com, Translate.Ru, Lycos itp., A także w instytucjach o różnych profilach do tłumaczeń biznesowych dokumentacja, artykuły i listy (istnieją systemy tłumaczeń wbudowane bezpośrednio w Outlook Express i inne programy pocztowe).

Obecnie pojawiają się nowe technologie tłumaczeń maszynowych, oparte na wykorzystaniu systemów sztuczna inteligencja, metody statystyczne. Te ostatnie zostaną omówione w następnej sekcji.

2.2 Statystykmetody naukowe w nauce języków

We współczesnym językoznawstwie dużą uwagę poświęca się badaniu zjawisk językowych za pomocą metod matematyki ilościowej. Dane ilościowe często pozwalają na głębsze zrozumienie badanych zjawisk, ich miejsca i roli w systemie zjawisk z nimi związanych. Odpowiedź na pytanie „ile” pomaga odpowiedzieć na pytania „co”, „jak”, „dlaczego” - jest to potencjał heurystyczny cech ilościowych.

Metody statystyczne odgrywają znaczącą rolę w rozwoju systemów tłumaczenia maszynowego (patrz sekcja 2.1). W podejściu statystycznym problem translacji rozpatrywany jest w kontekście zaszumionego kanału. Wyobraźmy sobie, że musimy przetłumaczyć zdanie z angielskiego na rosyjski. Zasada kanału szumowego pozwala nam na następujące wyjaśnienie związku pomiędzy wyrażeniem angielskim i rosyjskim: zdanie angielskie to nic innego jak zdanie rosyjskie zniekształcone przez szum. Aby zrekonstruować oryginalne rosyjskie zdanie, musimy wiedzieć, co dokładnie ludzie zwykle mówią po rosyjsku i jak rosyjskie zwroty są zniekształcane na angielski. Tłumaczenie odbywa się poprzez wyszukiwanie zdania rosyjskiego, które maksymalizuje iloczyn bezwarunkowego prawdopodobieństwa zdania rosyjskiego i prawdopodobieństwa zdania angielskiego (oryginalnego) w danym zdaniu rosyjskim. Zgodnie z twierdzeniem Bayesa to rosyjskie zdanie jest najbardziej prawdopodobnym tłumaczeniem języka angielskiego:

gdzie e to zdanie w tłumaczeniu, a f to zdanie oryginalne

Potrzebujemy więc modelu źródłowego i modelu kanału lub modelu języka i modelu tłumaczenia. Model językowy powinien przypisać ocenę prawdopodobieństwa dowolnemu zdaniu języka docelowego (w naszym przypadku rosyjskiego), a model tłumaczeniowy powinien przypisać ocenę prawdopodobieństwa zdaniu oryginalnemu. (patrz tabela 1)

Ogólnie rzecz biorąc, system tłumaczenia maszynowego działa w dwóch trybach:

1. Uczenie systemu: pobierany jest korpus szkoleniowy tekstów równoległych i przy użyciu programowania liniowego poszukiwane są wartości tabel korespondencji tłumaczeniowej, które maksymalizują prawdopodobieństwo (na przykład) rosyjskiej części korpusu przy istniejącym języku angielskim część zgodnie z wybranym modelem tłumaczenia. Na rosyjskiej części tego samego korpusu zbudowany jest model języka rosyjskiego.

2. Działanie: na podstawie uzyskanych danych szukane jest zdanie rosyjskie pod kątem nieznanego zdania angielskiego, które maksymalizuje iloczyn prawdopodobieństw przypisanych przez model językowy i model tłumaczeniowy. Program używany do tego wyszukiwania nazywa się deszyfratorem.

Najprostszym modelem tłumaczenia statystycznego jest model tłumaczenia dosłownego. W modelu tym zakłada się, że aby przetłumaczyć zdanie z jednego języka na drugi, wystarczy przetłumaczyć wszystkie słowa (aby powstał „worek słów”), a o ich uporządkowanie w odpowiedniej kolejności zadba model Aby zredukować P(a, f | e) do P(a | e, f), tj. prawdopodobieństwo danego dopasowania dla danej pary zdań, każde prawdopodobieństwo P(a, f | e) jest normalizowane przez sumę prawdopodobieństw wszystkich dopasowań danej pary zdań:

Implementacja algorytmu Viterbiego użytego do uczenia Modelu nr 1 jest następująca:

1. Cała tabela prawdopodobieństw korespondencji translacyjnej jest wypełniona tymi samymi wartościami.

2. Dla wszystkich możliwych wariantów łączenia słów parami oblicza się prawdopodobieństwo P(a, f | e):

3. Wartości P(a, f | e) normalizuje się w celu uzyskania wartości P(a | e, f).

4. Obliczana jest częstotliwość każdej pary transferu, ważona prawdopodobieństwem każdej opcji dopasowania.

5. Otrzymane częstości ważone są normalizowane i tworzona jest nowa tabela prawdopodobieństw korespondencji translacyjnej

6. Algorytm powtarza się od kroku 2.

Rozważmy dla przykładu uczenie podobnego modelu na korpusie dwóch par zdań (rys. 2):

Biały Dom

Po dużej liczbie iteracji otrzymujemy tabelę (tabela 2), z której widać, że tłumaczenie odbywa się z dużą dokładnością.

Metody statystyczne są również szeroko stosowane w badaniu słownictwa, morfologii, składni i stylistyki. Naukowcy z Perm State University przeprowadzili badanie oparte na stwierdzeniu, że stereotypowe kombinacje słów są ważnym czynnikiem „ materiał budowlany» tekst. Zwroty te składają się z „podstawowych” słów powtarzających się i zależnych słów konkretyzujących i mają wyraźną kolorystykę stylistyczną.

W stylu naukowym słowa „nuklearne” można nazwać: badanie, badanie, zadanie, problem, pytanie, zjawisko, fakt, obserwacja, analiza itp. W dziennikarstwie słowami „nuklearnymi” będą inne słowa, które mają zwiększoną wartość szczególnie w przypadku tekstu gazety: czas, osoba, władza, materia, działanie, prawo, życie, historia, miejsce itp. (łącznie 29)

Szczególne zainteresowanie lingwistów budzi także zawodowe zróżnicowanie języka narodowego oraz specyficzne wykorzystanie słownictwa i gramatyki w zależności od rodzaju zawodu. Wiadomo, że kierowcy w mowie zawodowej używają formy sh O z którym rozmawiają lekarze O Klush zamiast Cockle ty w - można podać podobne przykłady. Zadaniem statystyki jest monitorowanie zmienności wymowy i zmian normy językowej.

Różnice zawodowe prowadzą nie tylko do różnic gramatycznych, ale także leksykalnych. Na Uniwersytecie Państwowym w Jakucie im. M.K. Ammosov przeanalizował 50 kwestionariuszy zawierających najczęstsze reakcje lekarzy i budowniczych na określone słowa (tabela 3).

Budowniczowie

Człowiek

pacjent (10), osobowość (5)

mężczyzna (5)

Dobry

pomoc (8), pomoc (7)

zło (16)

życie

śmierć (10)

piękny (5)

śmierć

zwłoki (8)

życie (6)

ogień

ciepło (8), spalić (6)

ogień (7)

palec

ręka (14), przestępca (5)

kciuk (7), indeks (6)

oczy

wzrok (6), uczeń, okulista (po 5)

brązowy (10), duży (6)

głowa

umysł (14), mózgi (5)

duży (9), mądry (8), mądry (6)

stracić

świadomość, życie (po 4)

pieniądze (5), znajdź (4)

Można zauważyć, że lekarze częściej niż budowniczowie podają skojarzenia związane z wykonywaną przez nich działalnością zawodową, gdyż podane w ankiecie słowa bodźcowe mają raczej związek z wykonywanym przez nich zawodem niż z zawodem budowniczego.

Wzorce statystyczne w języku służą do tworzenia słowników częstotliwości - słowników, które zapewniają liczbową charakterystykę częstotliwości występowania słów (form wyrazów, fraz) dowolnego języka - języka pisarza, dzieła itp. Zwykle częstotliwość występowania słowa służy jako cecha częstotliwości występowania w tekście o określonej długości

Model percepcji mowy nie jest możliwy bez słownika jako jego najważniejszego elementu. Główną jednostką operacyjną w odbiorze mowy jest słowo. Wynika z tego w szczególności, że każde słowo postrzeganego tekstu musi być utożsamiane z odpowiednią jednostką wewnętrznego słownictwa słuchacza (lub czytelnika). Naturalnym jest założenie, że od samego początku wyszukiwanie ogranicza się do określonych podobszarów słownika. Według większości współczesnych teorii percepcji mowy, faktyczna analiza fonetyczna brzmiącego tekstu w typowym przypadku dostarcza jedynie częściowych informacji o możliwym wyglądzie fonologicznym słowa, a na tego rodzaju informacje odpowiada nie jedna, ale pewna WIELE słów w słowniku; Dlatego pojawiają się dwa problemy:

a) wybrać odpowiedni zestaw zgodnie z określonymi parametrami;

b) w ramach wyznaczonego zbioru (o ile jest on odpowiednio dobrany) „odsłonić” wszystkie słowa z wyjątkiem tego jedynego, które najlepiej odpowiada danemu słowu rozpoznanego tekstu. Jedną ze strategii przesiewowych jest eliminacja słów o niskiej częstotliwości. Wynika z tego, że słownik percepcji mowy jest słownikiem częstotliwości. Pierwszym zadaniem prezentowanego projektu jest stworzenie komputerowej wersji słownika częstotliwości języka rosyjskiego.

Istnieje 5 słowników częstotliwości opartych na języku rosyjskim (nie licząc słowników branżowych). Wspomnijmy tylko o kilku ogólne wady dostępne słowniki.

Wszystkie znane słowniki częstotliwości języka rosyjskiego opierają się na tablicach przetwarzania tekstów pisanych (drukowanych). Częściowo z tego powodu, gdy tożsamość słowa w dużej mierze opiera się na formalnej, graficznej zbieżności, semantyka nie jest dostatecznie brana pod uwagę. W rezultacie charakterystyka częstotliwościowa ulega przesunięciu i zniekształceniu; na przykład, jeśli kompilator słownika częstotliwości uwzględnia słowa z kombinacji „wzajemnie” w ogólnych statystykach użycia słowa „przyjaciel”, to nie jest to uzasadnione: biorąc pod uwagę semantykę, musimy przyznać, że te są już różnymi słowami, a raczej, że stanowią niezależną jednostkę słownictwa, po prostu samą kombinację jako całość.

Ponadto we wszystkich istniejących słownikach słowa są umieszczane tylko w ich podstawowych formach: rzeczowniki w formie pojedynczej, mianownik, czasowniki w formie bezokolicznika itp. Niektóre słowniki podają informacje o częstości występowania form wyrazowych, jednak zazwyczaj robią to w sposób niewystarczająco spójny i niewyczerpujący. Częstotliwości różnych form wyrazowych tego samego słowa oczywiście nie pokrywają się. Twórca modelu percepcji mowy musi wziąć pod uwagę, że w rzeczywistym procesie percepcyjnym rozpoznaniu podlega specyficzna forma wyrazu „zanurzona” w tekście: na podstawie analizy początkowego odcinka wykładnika formy wyrazu, powstaje wiele słów o identycznym początku, a początkowa część formy wyrazu niekoniecznie jest identyczna z początkową sekcją formy słownikowej. To forma wyrazu posiada specyficzną strukturę rytmiczną – stanowiącą jednocześnie niezwykle ważny parametr przy percepcyjnym doborze słów. Wreszcie, w ostatecznej reprezentacji rozpoznanej wypowiedzi, słowa są ponownie reprezentowane przez odpowiednie formy wyrazów.

Istnieje wiele prac ukazujących znaczenie częstotliwości w procesie percepcji mowy. Nie znamy jednak żadnego dzieła wykorzystującego częstość form wyrazowych – wręcz przeciwnie, wszyscy autorzy praktycznie ignorują częstość występowania poszczególnych form wyrazowych, zwracając się wyłącznie do leksemów. Jeśli uzyskane przez nich wyniki nie zostaną uznane za artefakty, to należy założyć, że native speaker w jakiś sposób ma dostęp do informacji o związku pomiędzy częstotliwością występowania form wyrazowych a formą słownikową, czyli w istocie leksemami. Co więcej, tego rodzaju przejścia od formy wyrazu do leksemu nie można oczywiście wytłumaczyć naturalną znajomością odpowiedniego paradygmatu, ponieważ informacja o częstotliwości musi zostać wykorzystana przed ostateczną identyfikacją słowa, w przeciwnym razie po prostu straci ono znaczenie.

Na podstawie pierwotnych cech statystycznych można przy zadanym błędzie względnym określić, która część słownictwa zawiera wyrazy o dużej częstotliwości występowania, niezależnie od rodzaju tekstu. Możliwe jest również, wprowadzając do słownika stopniowe porządkowanie, uzyskanie serii słowników obejmujących pierwsze 100, 1000, 5000 itd. pospolite słowa. Charakterystyka statystyczna słownika jest interesująca w związku z semantyczną analizą słownictwa. Badanie grup podmiotowo-ideologicznych i pól semantycznych pokazuje, że skojarzenia leksykalne opierają się na powiązaniach semantycznych, które skupiają się wokół leksemów o najogólniejszym znaczeniu. Opis znaczeń w polu leksykalno-semantycznym można przeprowadzić poprzez identyfikację słów o najbardziej abstrakcyjnych leksemach. Najwyraźniej „puste” (z punktu widzenia potencji mianownikowych) jednostki słownikowe stanowią warstwę statystycznie jednorodną.

Nie mniej cenne są słowniki poszczególnych gatunków. Da zbadanie miary ich podobieństwa i charakteru rozkładów statystycznych ciekawe informacje o jakościowym rozwarstwieniu słownictwa w zależności od sfery użycia mowy.

Kompilacja słowników o dużej częstotliwości wymaga zastosowania technologii komputerowej. Wprowadzenie częściowej mechanizacji i automatyzacji do procesu pracy nad słownikiem jest interesujące jako eksperyment maszynowego przetwarzania słowników dla różnych tekstów. Taki słownik wymaga bardziej rygorystycznego systemu przetwarzania i gromadzenia materiału słownictwa. W miniaturze jest to system wyszukiwania informacji, który może dostarczać informacji na temat różnych aspektów tekstu i słownictwa. Od początku zaplanowane są podstawowe zapytania do tego systemu: łączna liczba słów inwentarzowych, charakterystyka statystyczna pojedynczego słowa i całych słowników, kolejność częstych i rzadkich obszarów słownika itp. Indeks karty maszyny pozwala na automatyczne budować słowniki odwrotne dla poszczególnych gatunków i źródeł. Z zgromadzonego zestawu informacji zostanie wyodrębnionych wiele innych przydatnych informacji statystycznych na temat języka. Komputerowy słownik częstotliwości stwarza eksperymentalną podstawę do przejścia na szerszą automatyzację pracy słownika.

Dane statystyczne ze słowników częstotliwości mogą być szeroko stosowane w rozwiązywaniu innych problemów językowych - na przykład w analizie i określaniu aktywnych środków słowotwórstwa współczesnego języka rosyjskiego, rozwiązywaniu problemów związanych z poprawą grafiki i pisowni, które są związane z uwzględnianiem statystyk informacje o składzie słownictwa (przy tym wszystkim ważne jest uwzględnienie probabilistycznych cech kombinacji grafemów, rodzajów kombinacji liter realizowanych w słowach), praktycznej transkrypcji i transliteracji. Parametry statystyczne słownika będą także przydatne przy rozwiązywaniu problemów automatyzacji drukowania, rozpoznawania i automatycznego czytania tekstu alfabetycznego.

Współczesne słowniki objaśniające i gramatyki języka rosyjskiego budowane są głównie w oparciu o teksty literackie i artystyczne. Istnieją słowniki częstotliwości języka A.S. Puszkina, A.S. Griboyedova, F.M. Dostojewski, V.V. Wysocki i wielu innych autorów. Na Wydziale Historii i Teorii Literatury Państwowego Uniwersytetu Smoleńskiego. uniwersytet pedagogiczny Od kilku lat prowadzone są prace nad opracowaniem słowników częstotliwościowych tekstów poetyckich i prozatorskich. Do tego badania wybrano słowniki częstotliwości wszystkich tekstów Puszkina i dwóch kolejnych poetów złotego wieku - „Biada dowcipu” Gribojedowa i całej poezji Lermontowa; Pasternak i pięciu innych poetów epoki srebrnej – Balmont 1894-1903, „Wiersze o Do pięknej pani„Blok”, „Kamień” Mandelstama, „Słup ognia” Gumilowa, „Anno Domini MCMXXI” Achmatowej i „Siostra mojego życia” Pasternaka oraz czterech kolejnych poetów epoki żelaza - „Wiersze Jurija Żywago”, „ Kiedy się przejaśni”, cały korpus M. Pietrowa, „Droga jest daleko”, „Windshield”, „Pożegnanie śniegu” i „Podkowa” Meżirowa, „Antimirowie” Wozniesienskiego i „Kobieta Śnieżka” Rylenkowa .

Należy zauważyć, że słowniki te mają różny charakter: niektóre reprezentują słownictwo jednego dzieła dramatycznego, inne - księgę tekstów, kilka ksiąg lub cały zbiór poezji poety. Wyniki analizy przedstawione w tej pracy należy traktować z ostrożnością, nie można ich traktować jako absolutnych. Jednocześnie za pomocą specjalnych środków można w pewnym stopniu zmniejszyć różnicę w charakterze ontologicznym tekstów.

W ostatnich latach coraz wyraźniej zauważalny jest kontrast między mową potoczną a mową książkową. Zagadnienie to jest szczególnie gorąco dyskutowane wśród metodologów, którzy postulują zwrot w nauczaniu w stronę języka mówionego. Jednocześnie konkrety mowa potoczna nadal pozostaje niewyjaśniona.

Przetwarzanie słownika przeprowadzono poprzez utworzenie własnej aplikacji w środowisku programu biurowego EXCEL97. Aplikacja zawiera cztery arkusze kalkulacyjne w księdze EXCEL - „Arkusz tytułowy”, arkusz „Słowniki” z danymi początkowymi, „Bliskości” i „Odległości” z wynikami oraz zestaw makr.

Informacje wstępne wpisuje się do zakładki „Słowniki”. Słowniki badanych tekstów wpisuje się do komórek programu EXCEL, ostatnia kolumna S jest tworzona z uzyskanych wyników i jest równa liczbie słów znalezionych w innych słownikach. Tabele bliskości i odległości zawierają obliczone miary bliskości M, korelacji R i odległości D.

Makra aplikacji to procedury oparte na zdarzeniach napisane w języku Visual Basic for Application (VBA). Procedury opierają się na obiektach bibliotek VBA i metodach ich przetwarzania. Zatem do operacji na arkuszu aplikacji używany jest obiekt kluczowy Arkusz i odpowiadająca mu metoda aktywacji arkusza Aktywuj. Ustawienie zakresu analizowanych danych źródłowych na arkuszu „Słowniki” odbywa się metodą Select obiektu Range, natomiast przekazywanie słów jako wartości do zmiennych odbywa się za pomocą właściwości Value tego samego obiektu Range.

Pomimo tego, że analiza korelacji rang pozwala nam zachować ostrożność co do zależności tematów pomiędzy różnymi tekstami, większość słów najczęściej występujących w każdym tekście ma odpowiedniki w jednym lub kilku innych tekstach. Kolumna S pokazuje liczbę takich słów wśród 15 najczęściej występujących słów dla każdego autora. Słowa, które pojawiają się w naszej tabeli tylko u jednego poety, są wyróżnione pogrubioną czcionką. Blok, Achmatowa i Pietrow w ogóle nie mają wyróżnionych słów, mają S = 15. W przypadku tych trzech poetów wszystkie 15 najczęściej występujących słów jest takich samych, różnią się jedynie miejscem na liście. Ale nawet Puszkin, którego słownictwo jest najbardziej oryginalne, ma S = 8 i 7 wyróżnionych słów.

Wyniki pokazują, że istnieje pewna warstwa słownictwa skupiająca główne tematy poezji. Z reguły słowa te są krótkie: z ogólnej liczby (225) zastosowań słów 88 to wyrazy jednosylabowe, 127 to dwusylabowe, a 10 to trzysylabowe. Często te słowa reprezentują główne mitologigemy i można je podzielić pary: noc - dzień, ziemia - niebo (słońce), Bóg - człowiek (ludzie), życie - śmierć, ciało - dusza, Rzym - świat(od Mandelstama); można więcej łączyć w mitologie wysoki poziom: niebo, gwiazda, słońce, ziemia; u osoby z reguły wyróżnia się ciało, serce, krew, ramię, noga, policzek, oczy. Wśród stanów ludzkich preferowany jest sen i miłość. Dom i miasta należą do świata ludzi - Moskwa, Rzym, Paryż. Kreatywność jest reprezentowana przez leksemy słowo I piosenka.

Gribojedow i Lermontow nie mają prawie żadnych słów oznaczających naturę wśród najczęstszych słów. Mają trzy razy więcej słów oznaczających osobę, części jej ciała, elementy jego świata duchowego. W Puszkinie i poetach XX wieku. określenia człowieka i natury są mniej więcej równo podzielone. W tym ważnym aspekcie tematu można powiedzieć, że wiek XX. podążał za Puszkinem.

Minimalny motyw sprawa wśród słów najczęstszych występuje tylko u Gribojedowa i Puszkina. W Lermontowie i poetach XX wieku. ustępuje miejsca minimalistycznemu motywowi słowo. Słowo nie wyklucza czynu (biblijna interpretacja tematu: w Nowym Testamencie całe nauczanie Jezusa Chrystusa uważane jest za słowo Boże lub słowo Jezusa, a apostołowie czasami nazywają siebie sługami Słowa). Święte znaczenie leksemach słowo to przekonująco objawia się chociażby w wersecie Pasternaka „I obraz świata objawiony w Słowie”. Święte znaczenie leksemu słowo we współ- i w kontraście ze sprawami ludzkimi przekonująco ukazuje się w wierszu Gumilowa pod tym samym tytułem.

Leksemy występujące tylko w jednym tekście charakteryzują wyjątkowość danej księgi lub zbioru ksiąg. Na przykład słowo „umysł” występuje najczęściej w komedii Gribojedowa „Biada dowcipu” - ale nie występuje wśród najczęstszych słów w innych tekstach. Temat umysłu jest zdecydowanie najważniejszy w komedii. Leksem ten towarzyszy wizerunkowi Chatsky'ego, a imię Chatsky jest najczęstsze w komedii. W ten sposób praca organicznie łączy najpopularniejszy rzeczownik pospolity z najczęstszym rzeczownikiem własnym.

Najwyższy współczynnik korelacji łączy wątki tragicznych książek Gumilowa „Słup ognia” i „Anno Domini MCMXXI” Achmatowej. Wśród 15 najczęściej występujących rzeczowników 10 jest pospolitych, w tym krew, serce, dusza, miłość, słowo, niebo. Przypomnijmy, że w książce Achmatowej znajduje się miniatura „Nigdy nie będziesz żył…”, napisana pomiędzy aresztowaniem Gumilowa a jego egzekucją.

Motywy świec i tłumów w badanym materiale znajdują się jedynie w „Wierszach Jurija Żywago”. Temat świecy w wierszach powieści ma wiele znaczeń kontekstowych: kojarzy się z wizerunkiem Jezusa Chrystusa, z motywami wiary, nieśmiertelności, kreatywności i randki miłosnej. Świeca jest najważniejszym źródłem światła w centralnych scenach powieści. Temat tłumu rozwija się w związku z główną ideą powieści, w której życie prywatne człowieka z jego niewzruszonymi wartościami zostaje skontrastowane z niemoralnością nowego państwa, zbudowanego na zasadach zadowalania tłumu .

Praca obejmuje trzeci etap, również odzwierciedlony w programie, a mianowicie obliczenie różnicy w liczbach porządkowych słów wspólnych dla dwóch słowników oraz średniej odległości między identycznymi słowami w dwóch słownikach. Etap ten pozwala przejść od ogólnych trendów współdziałania słowników, identyfikowanych za pomocą statystyki, do poziomu zbliżonego do tekstu. Na przykład księgi Gumilowa i Achmatowej są statystycznie istotnie skorelowane. Sprawdzamy, które słowa są wspólne dla ich słowników i przede wszystkim wybieramy te, których liczby porządkowe są minimalne lub równe zero. To właśnie te słowa mają tę samą rangę i dlatego właśnie te minimalne tematy są równie ważne w świadomości obu poetów. Następnie należy przejść na poziom tekstów i kontekstów.

Metody ilościowe pomagają również w badaniu cech rodzimych użytkowników języka. Na przykład w języku rosyjskim jest 6 przypadków, w języku angielskim nie ma przypadków, a w niektórych językach narodów Dagestanu liczba przypadków sięga 40. L. Perłowski w swoim artykule „Świadomość, język i kultura” koreluje te cechy ze skłonnością narodów do indywidualizmu lub kolektywizmu, z postrzeganiem rzeczy i zjawisk osobno lub w powiązaniu z innymi. Przecież to w świecie anglojęzycznym (nie ma przypadków - rzecz postrzegana jest „w sobie”) pojawiły się takie pojęcia, jak wolność osobista, liberalizm i demokracja (zauważ, że tych pojęć używam tylko w odniesieniu do języka, bez żadnych cech wartościujących). Choć tego typu domysły pozostają wciąż jedynie na poziomie śmiałych hipotez naukowych, pozwalają spojrzeć na znane zjawiska w nowy sposób.

Jak widzimy, cechy ilościowe mogą być stosowane w zupełnie innych obszarach językoznawstwa, co coraz bardziej zaciera granice między metodami „dokładnymi” i „humanitarnymi”. Lingwistyka coraz częściej odwołuje się do pomocy nie tylko matematyki, ale także technologii komputerowej, aby rozwiązać swoje problemy.

2.3 Studia Ijęzyk przy użyciu metod logiki formalnej

Współczesne językoznawstwo teoretyczne współdziała z nieilościowymi metodami matematyki, w szczególności z logiką, nie mniej owocnie niż z metodami ilościowymi. Szybki rozwój technologii komputerowych i wzrost ich roli w współczesny świat wymagało rewizji podejścia do interakcji języka i logiki jako całości.

Metody logiczne znajdują szerokie zastosowanie w rozwoju języków sformalizowanych, w szczególności języków programowania, których elementami są określone symbole (zbliżone do matematycznych), wybrane (lub zbudowane z wcześniej wybranych symboli) i w określony sposób zinterpretowane, związane z żadnego „tradycyjnego” użycia, zrozumienia i funkcji tych samych symboli w innych kontekstach. Programista w swojej pracy stale zajmuje się logiką. Celem programowania jest właśnie nauczenie komputera rozumowania (w szerokim tego słowa znaczeniu). Jednocześnie metody „rozumowania” okazują się bardzo różne. Każdy programista spędza pewną ilość czasu na wyszukiwaniu błędów w programach swoich i innych. To znaczy szukać błędów w rozumowaniu, w logice. I to również pozostawia swój ślad. O wiele łatwiej jest wykryć błędy logiczne w mowie potocznej. Względna prostota języków badanych przez logików pozwala im jaśniej wyjaśnić struktury tych języków, niż jest to możliwe w przypadku lingwistów analizujących wyłącznie złożone języki naturalne. Ponieważ języki badane przez logików wykorzystują relacje skopiowane z języków naturalnych, logicy mogą wnieść znaczący wkład do ogólnej teorii języka. Sytuacja jest tu podobna do tej, która ma miejsce w fizyce: fizyk formułuje także twierdzenia dla przypadków idealnie uproszczonych, które w ogóle nie występują w przyrodzie – formułuje prawa dla gazów doskonałych, cieczy idealnych, mówi o ruchu przy braku tarcia itp. . Dla tych wyidealizowanych przypadków można ustalić proste prawa, które w ogromnym stopniu przyczyniłyby się do zrozumienia tego, co dzieje się w rzeczywistości i tego, co prawdopodobnie pozostałoby nieznane fizyce, gdyby próbowała rozpatrywać rzeczywistość bezpośrednio, w całej jej złożoności.

W nauce języków naturalnych stosuje się metody logiczne, aby uczący się języka nie mogli głupio „zapamiętać” jak największej liczby słów, ale lepiej zrozumieli jego strukturę. L. Szczerba wykorzystywał także w swoich wykładach przykład zdania skonstruowanego zgodnie z prawami języka rosyjskiego: „Glokaya kuzdra shteko budlanul bokra i kurdyachit bokrenka”, a następnie pytał studentów, co to oznacza. Pomimo tego, że znaczenie słów w zdaniu pozostało niejasne (po prostu nie istnieją w języku rosyjskim), udało się jasno odpowiedzieć: „kuzdra” - podmiot, rzeczownik kobiecy w mianowniku liczby pojedynczej „bokr” - ożywiać itp. Tłumaczenie tego wyrażenia jest mniej więcej takie: „Coś kobiecego w jednym kroku zrobiło coś jakiejś istocie męski, a potem zaczął robić coś długotrwałego i stopniowego ze swoim dzieckiem. Podobnym przykładem tekstu (fikcji) z nieistniejących słów, skonstruowanego całkowicie według praw języka, jest „Jabberwocky” Lewisa Carrolla (w „Alicji w Krainie Czarów” Carroll ustami swojego bohatera Humpty’ego Dumpty’ego wyjaśnia znaczenie wymyślonych przez niego słów: „ugotowane” - ósma wieczorem, kiedy przychodzi czas gotowania obiadu, „khliky” - wątły i zręczny, „shoryok” - skrzyżowanie fretki, borsuka i korkociągu, „kopać” - skakać, nurkować, kręcić się, „nava” - trawa pod zegarem słonecznym (rozciąga się trochę w prawo, trochę w lewo i trochę do tyłu), „chrząkanie” - chrząkanie i śmiech, „zelyuk” - a zielony indyk, „myumzik” - ptak, jego pióra są rozczochrane i wystają we wszystkich kierunkach jak miotła, „mova” - daleko od domu) .

Jedno z podstawowych pojęć współczesnej logiki i językoznawstwa teoretycznego, stosowane w badaniu języków różnych rachunków logiczno-matematycznych, języków naturalnych, do opisu relacji między językami różnych „poziomów” oraz do charakteryzowania relacji między językami omawianych języków i opisywanych za ich pomocą dziedzin tematycznych jest pojęcie metajęzyka. Metajęzyk to język używany do wyrażania sądów na temat innego języka, języka obiektowego. Za pomocą metajęzyka badają strukturę kombinacji znaków (wyrażeń) języka przedmiotowego, udowadniają twierdzenia o jego właściwościach ekspresyjnych, jego stosunku do innych języków itp. Badany język nazywany jest także językiem obiektywnym w odniesieniu do ten metajęzyk. Zarówno język przedmiotowy, jak i metajęzyk mogą być językami zwyczajnymi (naturalnymi). Metajęzyk może różnić się od języka przedmiotowego (na przykład w angielskim podręczniku dla Rosjan rosyjski jest metajęzykiem, a angielski jest językiem przedmiotowym), ale może się z nim pokrywać lub różnić się tylko częściowo, na przykład specjalną terminologią ( Rosyjska terminologia językowa jest elementem metajęzyka służącym do opisu języka rosyjskiego; tzw. czynniki semantyczne – część metajęzyka służąca do opisu semantyki języków naturalnych).

Pojęcie „metajęzyka” stało się bardzo owocne w związku z badaniem języków sformalizowanych skonstruowanych w ramach logiki matematycznej. W przeciwieństwie do sformalizowanych języków przedmiotowych, w tym przypadku metajęzyk, za pomocą którego formułuje się metateorię (badanie właściwości teorii podmiotu sformułowanej w języku przedmiotu), jest z reguły zwykłym językiem naturalnym, jakimś specjalnie ograniczonym fragmentem język naturalny, który nie zawiera jakiejkolwiek dwuznaczności, metafor, pojęć „metafizycznych” itp. elementów języka potocznego, które uniemożliwiają jego wykorzystanie jako narzędzia rzetelnych badań naukowych. W tym przypadku sam metajęzyk może zostać sformalizowany i (niezależnie od tego) stać się przedmiotem badań prowadzonych za jego pomocą, a taki ciąg można „myśleć” rosnącym w nieskończoność.

Logika uczy nas owocnego rozróżnienia między językiem przedmiotowym a metajęzykiem. Język przedmiotowy jest samym przedmiotem badań logicznych, a metajęzyk jest nieuchronnie językiem sztucznym, w którym te badania są prowadzone. Myślenie logiczne polega właśnie na formułowaniu w języku symboli (metajęzyku) relacji i struktury języka rzeczywistego (języka-przedmiotu).

Metajęzyk w żadnym wypadku nie może być „nie biedniejszy” od języka przedmiotu (tj. przy każdym wyrażeniu tego ostatniego w metajęzyku musi być jego nazwa – „tłumaczenie”) – w przeciwnym razie, jeśli wymagania te nie zostaną spełnione (co oczywiście ma miejsce w językach naturalnych, jeśli szczególne porozumienia nie stanowią inaczej), powstają paradoksy semantyczne (antynomie).

W miarę powstawania coraz większej liczby nowych języków programowania, w związku z problemem tłumaczy programowania, pojawiła się pilna potrzeba tworzenia metajęzyków. Obecnie najczęściej używaną do opisu składni języków programowania jest forma metajęzyka Backusa-Naura (w skrócie BNF). Jest on przedstawiony w zwartej formie w postaci niektórych wzorów zbliżonych do matematycznych. Dla każdego pojęcia języka istnieje pojedyncza formuła metaforyczna (formuła normalna). Składa się z części lewej i prawej. Lewa strona wskazuje definiowane pojęcie, a prawa strona określa zbiór akceptowalnych konstrukcji językowych, które są łączone w to pojęcie. We wzorze zastosowano specjalne metasymbole w postaci nawiasów ostrokątnych, które zawierają pojęcie zdefiniowane (po lewej stronie wzoru) lub pojęcie wcześniej zdefiniowane (po prawej stronie), a oddzielenie części lewej i prawej sygnalizowane jest przez metasymbol „::=", którego znaczenie jest równoważne słowom „z definicji istnieje”. Formuły metajęzykowe są w jakiejś formie osadzone w tłumaczach; za ich pomocą konstrukcje używane przez programistę są sprawdzane pod kątem zgodności formalnej z którąkolwiek z konstrukcji, które są syntaktycznie dopuszczalne w tym języku. Istnieją także odrębne metajęzyki różnych nauk – wiedza istnieje zatem w postaci różnych metajęzyków.

Metody logiczne posłużyły także jako podstawa do stworzenia systemów sztucznej inteligencji opartych na koncepcji koneksjonizmu. Koneksjonizm to szczególny ruch w naukach filozoficznych, którego przedmiotem są kwestie wiedzy. W ramach tego ruchu podejmowane są próby wyjaśnienia zdolności intelektualnych człowieka za pomocą sztucznych sieci neuronowych. Zbudowane z dużej liczby jednostek strukturalnych, przypominających neurony, z przypisaną każdemu elementowi wagą określającą siłę połączeń z innymi elementami, sieci neuronowe są uproszczonymi modelami ludzkiego mózgu. Eksperymenty z tego typu sieciami neuronowymi wykazały ich zdolność do uczenia się takich zadań, jak rozpoznawanie wzorców, czytanie i identyfikowanie prostych struktur gramatycznych.

Filozofowie zaczęli wykazywać zainteresowanie koneksjonizmem, ponieważ podejście koneksjonistyczne zapewniało alternatywę teoria klasyczna umysłu oraz szeroko rozpowszechnioną w tej teorii ideą, że działanie umysłu jest podobne do przetwarzania języka symbolicznego przez komputer cyfrowy. Koncepcja ta budzi wiele kontrowersji, jednak w ostatnich latach znajduje coraz więcej zwolenników.

Logiczne badanie języka stanowi kontynuację koncepcji języka Saussure’a jako systemu. Fakt, że trwa to nieustannie, po raz kolejny potwierdza śmiałość domysłów naukowych z początku ubiegłego wieku. Ostatnią część mojej pracy poświęcę perspektywom rozwoju metod matematycznych we współczesnym językoznawstwie.

2.4 Perspektywy zastosowania metod matematycznych w językoznawstwie

W dobie technologii komputerowej metody językoznawstwa matematycznego zyskały nową perspektywę rozwoju. Poszukiwanie rozwiązań problemów analizy językowej jest obecnie coraz częściej realizowane na poziomie systemów informatycznych. Jednocześnie automatyzacja procesu przetwarzania materiału językowego, zapewniając badaczowi znaczne możliwości i korzyści, nieuchronnie stawia przed nim nowe wymagania i zadania.

Połączenie wiedzy „dokładnej” i „humanitarnej” stało się podatnym gruntem dla nowych odkryć z zakresu językoznawstwa, informatyki i filozofii.

Tłumaczenie maszynowe z jednego języka na drugi pozostaje szybkie rozwijający się przemysł technologia informacyjna. Pomimo tego, że tłumaczenie za pomocą komputera nigdy nie będzie porównywalne jakością z tłumaczeniem wykonanym przez człowieka (szczególnie w przypadku tekstów literackich), maszyna stała się integralnym pomocnikiem człowieka w tłumaczeniu dużych objętości tekstu. Uważa się, że w niedalekiej przyszłości powstaną bardziej zaawansowane systemy tłumaczeniowe, oparte przede wszystkim na analizie semantycznej tekstu.

Równie obiecującym kierunkiem pozostaje interakcja językoznawstwa i logiki, która stanowi filozoficzną podstawę rozumienia technologii informatycznych i tzw. „wirtualnej rzeczywistości”. W najbliższej przyszłości kontynuowane będą prace nad stworzeniem systemów sztucznej inteligencji – choć ponownie nigdy nie dorównają one ludzkiej inteligencji w swoich możliwościach. Taka rywalizacja nie ma sensu: w naszych czasach maszyna powinna stać się (i staje się) nie rywalem, ale ludzkim pomocnikiem, nie czymś z fantazji, ale częścią realnego świata.

W dalszym ciągu badania języka wykorzystują metody statystyczne, co pozwala dokładniej określić jego właściwości jakościowe. Ważne jest, aby najśmielsze hipotezy dotyczące języka znalazły swój matematyczny, a co za tym idzie, logiczny dowód.

Najważniejsze jest to, że różne gałęzie zastosowań matematyki w językoznawstwie, wcześniej zupełnie od siebie odmienne, w ostatnich latach zostały ze sobą skorelowane, łącząc się w spójny system, przez analogię do systemu języka odkrytego sto lat temu przez Ferdynanda de Saussure’a i Yvana Baudouina de Courtenay’a. Na tym polega ciągłość wiedzy naukowej.

Lingwistyka we współczesnym świecie stała się podstawą rozwoju technologii informatycznych. Dopóki informatyka pozostanie szybko rozwijającą się dziedziną ludzkiej działalności, połączenie matematyki i językoznawstwa będzie nadal odgrywać swoją rolę w rozwoju nauki.

Wniosek

W XX wieku technologia komputerowa przeszła długą drogę - od zastosowań wojskowych po pokojowe, od wąskiego zakresu celów po penetrację wszystkich sektorów życia ludzkiego. Matematyka jako nauka zyskała nowe, praktyczne znaczenie wraz z rozwojem technologii komputerowej. Proces ten trwa do dziś.

Nie do pomyślenia wcześniej „tandem” „fizyków” i „autorów tekstów” stał się rzeczywistością. Do pełnego współdziałania matematyki i informatyki z naukami humanistycznymi potrzebni byli wykwalifikowani specjaliści z obu stron. O ile informatycy coraz częściej potrzebują systematycznej wiedzy humanitarnej (językowej, kulturowej, filozoficznej), aby zrozumieć zmiany w otaczającej ich rzeczywistości, w interakcji człowieka z technologią, opracowywać coraz więcej nowych koncepcji językowych i mentalnych, pisać programy, to każdy „humanitarny” w naszych czasach za jego rozwój zawodowy musi opanować przynajmniej podstawy pracy z komputerem.

Matematyka, będąc ściśle powiązana z informatyką, stale się rozwija i wchodzi w interakcje z wiedzą przyrodniczą i humanistyczną. W nowym stuleciu tendencja do matematyzacji nauki nie słabnie, a wręcz przeciwnie, nasila się. Wykorzystując dane ilościowe, można zrozumieć wzorce rozwoju języka oraz jego cechy historyczne i filozoficzne.

Formalizm matematyczny najlepiej nadaje się do opisu wzorców w językoznawstwie (podobnie jak w innych naukach - zarówno humanistycznych, jak i przyrodniczych). Czasami sytuacja w nauce rozwija się w taki sposób, że bez użycia odpowiedniego języka matematycznego można zrozumieć naturę fizyczną, chemiczną itp. proces jest niemożliwy. Tworząc planetarny model atomu, słynny angielski fizyk XX wieku. E. Rutherford doświadczył trudności matematycznych. Początkowo jego teoria nie została przyjęta: nie brzmiała ona przekonująco, a powodem tego była nieznajomość Rutherforda teorii prawdopodobieństwa, na podstawie której mechanizmu można było zrozumieć jedynie modelową reprezentację oddziaływań atomowych. Zdając sobie z tego sprawę, już wówczas wybitny naukowiec, właściciel Nagroda Nobla, zapisał się na seminarium matematyka profesora Lamba i przez dwa lata wraz ze studentami odbywał kurs i pracował na warsztatach z teorii prawdopodobieństwa. Na jej podstawie Rutherford był w stanie opisać zachowanie elektronu, nadając swojemu modelowi strukturalnemu przekonującą dokładność i zyskując uznanie. Podobnie jest z lingwistyką.

Nasuwa się pytanie, co jest takiego matematycznego w zjawiskach obiektywnych, że dają się opisać w języku matematyki, w języku cech ilościowych? Są to jednorodne jednostki materii rozmieszczone w przestrzeni i czasie. Nauki, które posunęły się dalej niż inne w kierunku identyfikacji jednorodności, okazują się lepiej przystosowane do stosowania w nich matematyki.

Internet, który szybko rozwinął się w latach 90., zjednoczył przedstawicieli różnych krajów, narodów i kultur. Pomimo tego, że angielski nadal jest głównym językiem komunikacji międzynarodowej, Internet stał się w naszych czasach wielojęzyczny. Doprowadziło to do opracowania systemów tłumaczenia maszynowego, które odniosły sukces komercyjny i są szeroko stosowane w różnych obszarach działalności człowieka.

Sieci komputerowe stały się przedmiotem filozoficznego zrozumienia – powstaje coraz więcej nowych koncepcji językowych, logicznych, światopoglądowych, które mają pomóc zrozumieć „wirtualną rzeczywistość”. W wielu dziełach sztuki stworzono scenariusze – często pesymistyczne – dotyczące dominacji maszyn nad człowiekiem i dominacji wirtualnej rzeczywistości nad otaczającym światem. Nie zawsze takie prognozy okazywały się bezsensowne. Technologia informacyjna to nie tylko obiecujący obszar inwestowania ludzkiej wiedzy, to także sposób na kontrolowanie informacji, a co za tym idzie, ludzkiego myślenia.

Zjawisko to ma zarówno negatywną, jak i pozytywną stronę. Negatywne – gdyż kontrola nad informacją stoi w sprzeczności z niezbywalnym prawem człowieka do swobodnego dostępu do niej. Pozytywne – gdyż brak tej kontroli może mieć katastrofalne skutki dla ludzkości. Wystarczy przypomnieć jeden z najmądrzejszych filmów ostatniej dekady – „Kiedy kończy się świat” Wima Wendersa, którego bohaterowie są całkowicie zanurzeni w „wirtualnej rzeczywistości” własnych snów, zapisanej na komputerze. Jednocześnie żaden naukowiec ani artysta nie jest w stanie udzielić jednoznacznej odpowiedzi na pytanie: co czeka naukę i technologię w przyszłości.

Koncentracja na „przyszłości”, która czasami wydaje się fantastyczna, była charakterystyczną cechą nauki połowy XX wieku, kiedy wynalazcy starali się stworzyć doskonałe przykłady technologii, które mogłyby działać bez interwencji człowieka. Czas pokazał utopijny charakter takich badań. Jednocześnie niepotrzebne byłoby potępianie za to naukowców – gdyby nie ich entuzjazm w latach 50. – 60., technologia informacyjna nie dokonałaby w latach 90. tak potężnego skoku i nie mielibyśmy tego, co mamy teraz.

Ostatnie dekady XX wieku zmieniły priorytety nauki – badań, wynalazczy patos ustąpił miejsca interesom komercyjnym. Powtórzę raz jeszcze: nie jest to ani dobre, ani złe. Jest to rzeczywistość, w której nauka jest coraz bardziej zintegrowana z życiem codziennym.

Nadejście XXI wieku kontynuowało ten trend, a w naszych czasach za wynalazkami stoi nie tylko sława i uznanie, ale przede wszystkim pieniądze. Dlatego też ważne jest, aby najnowsze osiągnięcia nauki i technologii nie wpadły w ręce grup terrorystycznych lub reżimów dyktatorskich. Zadanie jest trudne aż do niemożliwości; Urzeczywistnienie go w jak największym stopniu jest zadaniem całej społeczności światowej.

Informacja jest bronią i to bronią nie mniej niebezpieczną niż nuklearna czy chemiczna – tyle że nie działa fizycznie, a raczej psychicznie. Ludzkość musi zastanowić się, co jest dla niej w tym przypadku ważniejsze – wolność czy kontrola.

Najnowsze koncepcje filozoficzne związane z rozwojem technologii informacyjnych i próby ich zrozumienia ukazały ograniczenia zarówno naturalnego materializmu naukowego, który dominował przez cały XIX i początek XX wieku, jak i skrajnego idealizmu, zaprzeczającego znaczeniu świata materialnego. Ważne jest, aby myśl współczesna, zwłaszcza zachodnia, przełamała ten dualizm myślenia, gdy otaczający nas świat jest wyraźnie podzielony na materialny i idealny. Drogą do tego jest dialog kultur, porównanie różnych punktów widzenia na otaczające zjawiska.

Paradoksalnie, technologie informacyjne mogą odegrać w tym procesie ważną rolę. Sieci komputerowe, a zwłaszcza Internet, są nie tylko źródłem rozrywki i ożywionej działalności komercyjnej, ale także środkiem znaczącej, kontrowersyjnej komunikacji pomiędzy przedstawicielami różnych cywilizacji współczesnego świata, a także dialogu między przeszłością a teraźniejszością. obecny. Można powiedzieć, że Internet poszerza granice przestrzenne i czasowe.

Natomiast w dialogu kultur poprzez technologię informacyjną nadal istotna jest rola języka jako najstarszego uniwersalnego środka komunikacji. Dlatego lingwistyka w połączeniu z matematyką, filozofią i informatyką przeżyła swoje odrodzenie i rozwija się do dziś. Tendencja teraźniejszości będzie kontynuowana w przyszłości – „aż do końca świata”, jak przewidywał 15 lat temu V. Wenders. Co prawda nie wiadomo, kiedy ten koniec nastąpi – ale czy jest to ważne już teraz, bo prędzej czy później przyszłość i tak stanie się teraźniejszością.

Załącznik 1

Ferdynanda de Saussure’a

Szwajcarski językoznawca Ferdinand de Saussure (1857-1913) jest powszechnie uważany za twórcę nowożytnego językoznawstwa w jego próbach opisu struktury języka, a nie historii poszczególnych języków i form językowych. W rzeczywistości metoda strukturalizmu w językoznawstwie i literaturoznawstwie oraz znacząca gałąź semiotyki znajdują swój główny punkt wyjścia w jego twórczości z przełomu XIX i XX wieku. Argumentowano nawet, że zespół strategii i koncepcji, który zaczęto nazywać „poststrukturalizmem” – prace Jacques’a Derridy, Michela Foucaulta, Jacques’a Lacana, Julii Kristevy, Rolanda Barthesa i innych – jest sugerowany przez prace Saussure’a z zakresu językoznawstwa Jeśli tak jest, widać to najwyraźniej po tym, jak twórczość Saussure’a z zakresu językoznawstwa i interpretacji uczestniczy w przemianach sposobów rozumienia w szerokim zakresie dyscyplin intelektualnych, od fizyki po modernizm literacki. do psychoanalizy i filozofii początku XX wieku. Jak argumentują Algirdas Julien Greimas i Joseph Courtes w Semiotics and Language: An Analytic Dictionary pod nagłówkiem „Interpretacja”, na początku XX wieku pojawił się nowy sposób interpretacji, który utożsamiają z lingwistyką Saussure’a, fenomenologią husserlowską i psychoanalizą Freuda. W tym trybie „interpretacja nie polega już na przypisywaniu danej treści formie, której w innym przypadku by jej brakowało, lecz jest raczej parafrazą, która w inny sposób formułuje równoważną treść elementu znaczącego w obrębie danego systemu semiotycznego” ( 159). W tym rozumieniu „interpretacji” forma i treść nie są od siebie odrębne; raczej każda „forma” jest alternatywnie także „treścią” semantyczną, „formą znaczącą”, zatem interpretacja oferuje analogiczną parafrazę czegoś, co już oznacza w jakimś innym systemie znaczeń.

Taka reinterpretacja formy i rozumienia – którą Claude Levi-Strauss opisuje w jednym ze swoich najbardziej programowych sformułowań koncepcji strukturalizmu, w „Structure and Form: Reflections on a Work by Vladimir Propp” – jest zawarta w pośmiertnym Kursie Saussure’a w General Linguistics (1916, tłum., 1959, 1983) W ciągu swojego życia Saussure opublikował stosunkowo niewiele, a jego głównym dziełem, Kursem, była transkrypcja przez jego studentów kilku kursów z lingwistyki ogólnej, które prowadził w latach 1907-11. W trakcie kursu Saussure nawoływał do „naukowego” badania języka, w przeciwieństwie do prac z zakresu językoznawstwa historycznego, które miały miejsce w XIX wieku. Praca ta jest jednym z największych osiągnięć zachodniego intelektu: przyjęcie konkretnych słów jako elementów budulcowych. językoznawstwo historyczne (lub „diachroniczne”) prześledziło pochodzenie i rozwój języków zachodnich na podstawie domniemanego wspólnego źródła językowego, najpierw języka „indoeuropejskiego”, a następnie wcześniejszego języka „protoindoeuropejskiego”.

To właśnie badanie unikalnych wystąpień słów, przy jednoczesnym założeniu, że podstawową „jednostką” języka jest w rzeczywistości pozytywne istnienie tych „elementów słów”, zostało zakwestionowane przez Saussure'a. Jego praca była próbą zredukowania masy faktów dotyczących języka, tak szczegółowo zbadanych przez językoznawstwo historyczne, do możliwej do opanowania liczby twierdzeń. „Szkoła porównawcza” dziewiętnastowiecznej filologii, jak stwierdza Saussure w Kursie, „nie zdołała ustanowić prawdziwej nauki, jaką jest językoznawstwo”, ponieważ „nie udało jej się ustalić natury przedmiotu swoich badań” (3). Tę „naturę” – argumentuje – można odnaleźć nie tylko w „elementarnych” słowach, które zawiera język – w pozornych „pozytywnych” faktach (lub „substancjach”) języka – ale w formalnych relacjach, które dają początek tym „substancje”.

Systematyczne ponowne badanie języka przez Saussure'a opiera się na trzech założeniach. Pierwszym jest to, że naukowe badanie języka musi rozwijać i badać system, a nie historię zjawisk językowych. Z tego powodu rozróżnia on poszczególne wystąpienia języka - jego specyfikę „wydarzenia mowy”, które projektuje jako zwolnienie warunkowe, oraz właściwy przedmiot językoznawstwa, system (lub „kod”) rządzący tymi zdarzeniami, który projektuje jako język. Takie systematyczne badanie wymaga ponadto „synchronizacji”. raczej koncepcja relacji między elementami języka w konkretnym momencie niż „diachroniczne” badanie rozwoju języka na przestrzeni historii.

Założenie to dało początek temu, co Roman Jakobson w 1929 roku nazwał „strukturalizmem”, w którym „każdy zespół zjawisk badanych przez współczesną naukę jest traktowany nie jako mechaniczna aglomeracja, ale jako strukturalna całość. Mechaniczna koncepcja procesów poddaje w wątpliwość kwestię ich funkcji” („Romantyczny” 711). W tym fragmencie Jakobson wyraża zamiar Saussure’a, by zdefiniować lingwistykę jako system naukowy w przeciwieństwie do prostego, „mechanicznego” wyjaśniania wypadków historycznych. Co więcej, Jakobson jest także drugim podstawowym założeniem Saussure’a – możemy teraz nazwijmy to „strukturalnym” – językoznawstwem: że podstawowe elementy języka można badać jedynie w odniesieniu do ich funkcji, a nie w odniesieniu do ich przyczyn, zamiast badać konkretne i niepowtarzalne wydarzenia i byty (tj. historię poszczególnych Indoeuropejczyków „słowa”), te zdarzenia i byty muszą zostać umieszczone w ramach systemowych, w których są powiązane z innymi, tak zwanymi zdarzeniami i bytami. Jest to radykalna reorientacja w pojmowaniu doświadczenia i zjawisk, których znaczenie filozof Ernst. Cassirer porównał go do „nowej nauki Galileusza, która w XVII wieku zmieniła całą naszą koncepcję świata fizycznego” (cyt. w: Culler, Pursuit 24). Zmiana ta, jak zauważają Greimas i Courtes, oznacza ponowne pojmowanie „interpretacji”, a tym samym ponowne pojmowanie samego wyjaśnienia i zrozumienia. Zamiast wyjaśniania być w kategoriach przyczyn zjawiska, tak że jako „skutek” jest w pewnym sensie podporządkowany swoim przyczynom, wyjaśnianie polega tutaj na podporządkowaniu zjawiska jego przyszłościowej „funkcji” lub "zamiar." Wyjaśnianie nie jest już niezależne od ludzkich intencji i celów (mimo że intencje te mogą być bezosobowe, wspólnotowe lub, w terminologii freudowskiej, „nieświadome”).

W swojej lingwistyce Saussure dokonuje tej transformacji w szczególności poprzez redefinicję językowego „słowa”, które opisuje jako językowy „znak” i definiuje w kategoriach funkcjonalistycznych. Znak, jego zdaniem, jest połączeniem „pojęcia i obrazu dźwiękowego”, które nazwał „oznaczonym i znaczącym” (66-67; tłumaczenie Roya Harrisa z 1983 r. zawiera terminy „znaczenie” i „sygnał”) ich „połączenia” jest „funkcjonalne” w tym sensie, że ani znaczące, ani znaczące nie są „przyczyną” drugiego; raczej „każde z nich ma wartości od drugiego” (8). i poddaje podstawowe założenia językoznawstwa historycznego, a mianowicie tożsamość elementarnych jednostek języka i znaczenia (tj. „słów”), poddaje rygorystycznej analizie. Dlatego możemy rozpoznać różne wystąpienia słowa „drzewo” jako „. tym samym” słowem nie dlatego, że jest ono zdefiniowane przez nieodłączne cechy – nie jest to „mechaniczny zbiór” takich cech – ale dlatego, że jest zdefiniowane jako element systemu, „strukturalna całość” „języka”.

Taka relacyjna (lub „diakrytyczna”) definicja bytu reguluje koncepcję wszystkich elementów języka w językoznawstwie strukturalnym. Najwyraźniej widać to w najbardziej imponującym osiągnięciu lingwistyki Saussure’a, jakim jest rozwój koncepcji „fonemów” i „cech charakterystycznych” języka. Fonemy są najmniejszymi wyartykułowanymi i znaczącymi jednostkami języka. Nie są to dźwięki występujące w języku, ale „obrazy dźwiękowe”, o których wspomina Saussure, które są odbierane przez mówiących – rozumiane fenomenalnie – jako niosące znaczenie. (Dlatego Elmar Holenstein opisuje lingwistykę Jakobsona, która w znaczący sposób podąża za Saussure'em, jako „strukturalizm fenomenologiczny”). Z tego powodu czołowy rzecznik strukturalizmu szkoły praskiej, Jan Mukarovsky, zauważył w 1937 r., że „struktura. . . jest rzeczywistością fenomenologiczną, a nie empiryczną; nie jest to samo dzieło, ale zespół relacji funkcjonalnych, które umiejscowione są w świadomości zbiorowości (pokolenia, środowiska itp.)” (cyt. za: Galan 35). Podobnie Levi-Strauss, czołowy rzecznik francuskiego strukturalizmu , zauważył w 1960 r., że „struktura nie ma odrębnej treści; jest samą treścią, a logiczną organizację, w której jest zatrzymana, pojmuje się jako własność rzeczywistości” (167; zob. także Jakobson, Fundamentals 27-28).

Fonemy, najmniejsze dostrzegalne elementy języka, nie są przedmiotami pozytywnymi, ale „rzeczywistością fenomenologiczną”. Na przykład w języku angielskim fonem /t/ można wymawiać na wiele różnych sposobów, ale we wszystkich przypadkach osoba mówiąca po angielsku rozpozna go jako funkcjonujący jako a /t/. Przydechowe t (tzn. a t wymawiane z następującym po nim oddechem przypominającym h), wysoki lub niski dźwięk t, przedłużony dźwięk t itd. będą działać w ten sam sposób przy rozróżnianiu znaczenia „do” i „do” po angielsku. Co więcej, różnice między językami są takie, że różnice fonologiczne w jednym języku mogą stanowić odrębne fonemy w innym; Tak więc w języku angielskim rozróżnia się /l/ i /r/, podczas gdy inne języki są tak skonstruowane, że te artykulacje są uważane za odmiany tego samego fonemu (jak przydechowe i nieprzydechowe t w języku angielskim). W każdym języku naturalnym ogromna liczba możliwych słów jest kombinacją niewielkiej liczby fonemów. Na przykład angielski ma mniej niż 40 fonemów, które tworzą ponad milion różnych słów.

Fonemy języka same w sobie są systematycznie zorganizowanymi strukturami cech. W latach dwudziestych i trzydziestych XX wieku, idąc za przykładem Saussure’a, Jakobson i N. S. Trubetzkoy wyodrębnili „cechy charakterystyczne” fonemów. Cechy te opierają się na fizjologicznej strukturze narządów mowy – języka, zębów, strun głosowych itd. – że Saussure wspomina w Kursie i że Harris opisuje to jako „fonetykę fizjologiczną” (39; we wcześniejszym tłumaczeniu Baskina używany jest termin „fonologia” [(1959) 38]) – i łączą się one w „wiązki” opozycji binarnych, tworząc fonemy. Na przykład w języku angielskim różnica między /t/ i /d/ polega na obecności lub braku „głosu” (zaangażowania strun głosowych), a na poziomie dźwięczności fonemy te wzajemnie się określają. W ten sposób fonologia jest specyficznym przykładem ogólnej zasady języka opisanej przez Saussure’a: W języku istnieją tylko różnice. Co jeszcze ważniejsze: różnica zazwyczaj implikuje pozytywne warunki, pomiędzy którymi powstaje różnica; ale w języku istnieją tylko różnice bez terminów pozytywnych. Niezależnie od tego, czy weźmiemy znaczące, czy znaczące, język nie ma idei ani dźwięków, które istniały przed systemem językowym. (120)

W tym ujęciu tożsamości językowe są zdeterminowane nie przez wrodzone cechy, ale przez relacje systemowe („strukturalne”).

Powiedziałem, że fonologia „poszła w ślady” Saussure’a, ponieważ chociaż jego analizę fizjologii wytwarzania języka „w dzisiejszych czasach”, jak mówi Harris, „nazywałaby się „fizyczną”, w przeciwieństwie do „psychologicznej” lub „funkcjonalnej” „” (Czytanie 49), niemniej jednak w Kursie wyartykułował kierunek i zarys funkcjonalnej analizy języka. Podobnie jego jedyne rozszerzone opublikowane dzieło Memoire sur le systeme primitif des voyelles dans les langues Indo-Europeennes (Pamiętnik o pierwotnym systemie samogłosek w językach indoeuropejskich), które ukazało się w 1878 roku, w pełni mieściło się w projekcie XIX- stulecia językoznawstwo historyczne. Niemniej jednak w tej pracy, jak zauważył Jonathan Culler, Saussure wykazał „płodność myślenia o języku jako systemie elementów czysto relacyjnych, nawet podczas pracy nad rekonstrukcją historyczną” (Saussure 66). Analizując systematyczne relacje strukturalne między fonemami, aby uwzględnić wzorce naprzemienności samogłosek w istniejących językach indoeuropejskich, Saussure zasugerował, że oprócz kilku różnych fonemów /a/ musiał istnieć inny fonem, który można opisać formalnie. „To, co sprawia, że ​​dzieło Saussure’a jest tak imponujące” – podsumowuje Culler – „jest faktem, że prawie pięćdziesiąt lat później, kiedy odkryto i rozszyfrowano pismo klinowe hetyckie, okazało się, że zawiera ono fonem zapisany h, który zachowywał się zgodnie z przewidywaniami Saussure’a . Dzięki czysto formalnej analizie odkrył coś, co obecnie znane jest jako krtani indoeuropejskie” (66).

Ta koncepcja relacyjnego lub diakrytycznego określenia elementów znaczenia, która jest zarówno dorozumiana, jak i wyraźna w Kursie, sugeruje trzecie założenie rządzące językoznawstwem strukturalnym, które Saussure nazywa „arbitralną naturą znaku”. Rozumie przez to, że relacja między znaczącym i znaczonym w języku nigdy nie jest konieczna (ani „motywowana”): równie łatwo można znaleźć arbre dźwiękowego znaczącego, jak drzewo znaczące, aby zjednoczyć się z pojęciem „drzewa”. Co więcej, oznacza to również, że oznaczenie jest również dowolne: pojęcie „drzewa” można z łatwością zdefiniować na podstawie jego zdrewniałości (co wyklucza palmy), jak i jego wielkości (co wyklucza „niskie rośliny drzewiaste”, które nazywamy nazywać krzewami). Powinno to wyjaśnić, że numeracja założeń, którą przedstawiłem, nie reprezentuje porządku pierwszeństwa: każde założenie – systemowa natura znaczenia (najlepiej uchwycona przez badanie języka „synchronicznie”), relacyjny lub „diakrytyczny” charakter elementów znaczenia, arbitralność znaków – czerpie swoją wartość z innych.

Oznacza to, że lingwistyka Saussure’a rozumie badane przez siebie zjawiska w nadrzędnych relacjach kombinacji i kontrastu w języku. W tej koncepcji język jest zarówno procesem artykułowania znaczenia (znaczeniem), jak i jego wytworem (komunikacją), a te dwie funkcje języka nie są ani tożsame, ani w pełni przystające (por. Schleifer, „Dekonstrukcja”). Widzimy tu naprzemienność formy i treści, którą Greimas i Courtes opisują w interpretacji modernistycznej: język przedstawia kontrasty, które formalnie definiują jego jednostki, a jednostki te łączą się na kolejnych poziomach, tworząc treść znaczącą. Ponieważ elementy języka są arbitralne, nie można ponadto powiedzieć, że ani kontrast, ani kombinacja są podstawowe. , w języku cechy charakterystyczne łączą się, tworząc kontrastujące fonemy na innym poziomie pojmowania, fonemy łączą się, tworząc W ten sposób kontrastujące morfemy, morfemy łączą się, tworząc słowa, słowa łączą się, tworząc zdania i tak dalej. W każdym przypadku cały fonem, słowo, zdanie itd. jest większe niż suma jego części (tak jak woda, H2O w przykładzie Saussure’a [(1959) 103] jest czymś więcej niż mechaniczną aglomeracją wodoru i tlenu).

Trzy założenia Kursu Lingwistyki Ogólnej skłoniły Saussure'a do wezwania do powołania nowej nauki XX wieku, która wykraczałaby poza nauki językowe i badała „życie znaków w społeczeństwie”. Saussure nazwał tę naukę „semiologią (od greckiego semeion „znak”)” (16). „Nauka” semiotyki, jaką zaczęto praktykować w Europie Wschodniej w latach dwudziestych i trzydziestych XX wieku oraz w Paryżu w latach pięćdziesiątych i sześćdziesiątych XX wieku, rozszerzyła badanie języka i struktur językowych na artefakty literackie utworzone (lub artykułowane) przez te struktury. Co więcej, pod koniec swojej kariery, nawet gdy prowadził kursy z lingwistyki ogólnej, Saussure prowadził własną „semiotyczną” analizę późnej poezji łacińskiej, próbując odkryć celowo ukryte anagramy nazw własnych. Metoda badań była pod wieloma względami przeciwieństwem funkcjonalnego racjonalizmu jego analiz językowych: próbowała, jak wspomina Saussure w jednym z 99 zeszytów, w których prowadził te badania, systematycznie badać problem „przypadku”, który „ staje się nieuniknioną podstawą wszystkiego” (cyt. za Starobiński 101). Badania takie, jak twierdzi sam Saussure, skupiają się na „materialnym fakcie” przypadku i znaczenia (cyt. 101), tak że „słowo-temat”, którego anagramu szuka Saussure, jak twierdzi Jean Starobinski, „jest dla poety , instrument, a nie żywotny zalążek wiersza, wiersz jest zmuszony ponownie wykorzystać materiał foniczny tematu-słowa” (45). Starobiński stwierdza w tej analizie: „Saussure nie zatracił się w poszukiwaniu ukrytych znaczeń”. Zamiast tego jego twórczość zdaje się demonstrować chęć uniknięcia wszelkich problemów wynikających ze świadomości: „Ponieważ poezja nie tylko realizuje się w słowach, ale jest czymś, co rodzi się ze słów, wymyka się arbitralnej kontroli świadomości i opiera się wyłącznie na pewnego rodzaju legalności językowej „(121).

Oznacza to próbę odkrycia imion własnych w późnej poezji łacińskiej przez Saussure’a – co Tzvetan Todorov nazywa redukcją „słowa”. . . do jego znaczącego” (266) – podkreśla jeden z elementów rządzących jego analizą językową, arbitralność znaku. (Podkreśla także formalny charakter językoznawstwa Saussure’a – „Język” – twierdzi – „jest formą, a nie substancją” – co skutecznie eliminuje semantykę jako główny przedmiot analizy.) Jak konkluduje Todorov, dzieło Saussure’a wydaje się dziś szczególnie jednorodne, ponieważ odmawia akceptacji zjawisk symbolicznych. . . . W swoich badaniach nad anagramami zwraca uwagę wyłącznie na zjawiska powtórzenia, a nie na zjawiska ewokacji. . . . W swoich studiach nad Nibelungami rozpoznaje symbole tylko po to, aby przypisać je błędnym odczytaniom: ponieważ nie są one zamierzone, symbole nie istnieją. Wreszcie na zajęciach z językoznawstwa ogólnego zastanawia się nad istnieniem semiologii, a więc znaków innych niż językowe; ale stwierdzenie to jest od razu ograniczone faktem, że semiologia zajmuje się jednym rodzajem znaków: znakami arbitralnymi. (269-70)

Jeśli to prawda, to dlatego, że Saussure nie mógł wyobrazić sobie „intencji” bez podmiotu; nie mógł do końca uciec od opozycji między formą a treścią, którą jego twórczość tak bardzo kwestionowała. Zamiast tego uciekł się do „legalności językowej”. Usytuowany pomiędzy, z jednej strony, dziewiętnastowiecznymi koncepcjami historii, subiektywnością i rządzonym przez te koncepcje sposobem interpretacji przyczynowej, a z drugiej strony, dwudziestowiecznymi „strukturalistycznymi” koncepcjami tego, co Levi-Strauss nazwał „kantyzmem bez podmiot transcendentalny” (cyt. za Connerton 23) – koncepcje zacierające opozycję pomiędzy formą i treścią (lub podmiotem a przedmiotem) oraz hierarchią pierwszego planu i tła w pełnoprawnym strukturalizmie, psychoanalizie, a nawet mechanice kwantowej – dzieło Ferdynanda de Saussure w językoznawstwie i semiotyce wyznacza sygnałowy moment w badaniu znaczenia i kultury.

Ronalda Schleifera

Dodatek 2

Ferdynand de Saussure (tłumaczenie)

Szwajcarski językoznawca Ferdinand de Saussure (1857-1913) uważany jest za twórcę nowożytnego językoznawstwa – dzięki jego próbom opisu struktury języka, a nie historii poszczególnych języków i form wyrazowych. W zasadzie podstawy metod strukturalnych w językoznawstwie i krytyce literackiej, a także w dużej mierze semiotyki zostały położone w jego twórczości już na początku XX wieku. Udowodniono, że metody i koncepcje tzw. „poststrukturalizmu”, rozwinięte w pracach Jacques’a Derridy, Michela Foucaulta, Jacques’a Lacana, Julii Kristevej, Rolanda Barthesa i innych, sięgają dzieł językoznawczych Saussure’a i odczytań anagramatycznych późnej poezji rzymskiej. Należy zauważyć, że prace Saussure'a nad lingwistyką i interpretacją języka pomagają łączyć szeroki zakres dyscyplin intelektualnych, od fizyki po innowacje literackie, psychoanalizę i filozofię początków XX wieku. A. J. Greimas i J. Courtet piszą w Semiotics and Language: „Słownik analityczny o tytule „Interpretacja” jako nowy rodzaj interpretacji pojawił się na początku XX wieku wraz z lingwistyką Saussure’a, fenomenologią Husserla i psychoanalizą Freuda. W tym przypadku „interpretacja nie polega na przypisaniu danej treści formie, która w innym przypadku by jej nie posiadała, lecz jest to parafraza, która w inny sposób formułuje tę samą treść istotnego elementu w obrębie danego systemu semiotycznego” (159). ). W tym rozumieniu „interpretacji” forma i treść są nierozłączne; wręcz przeciwnie, każda forma nasycona jest znaczeniem semantycznym („forma znacząca”), zatem interpretacja oferuje nowe, podobne opowiedzenie czegoś znaczącego w innym systemie znaków.

Podobne rozumienie formy i treści, zaprezentowane przez Claude’a Lévi-Straussa w jednym z programowych dzieł strukturalizmu („Structure and Form: Reflections on the Works of Vladimir Propp”), można dostrzec w pośmiertnej książce Saussure’a „Course in General” Lingwistyka” (1916, tłum., 1959, 1983). Saussure niewiele publikował za swojego życia; jego główne dzieło, Kurs, zostało opracowane na podstawie notatek studentów, którzy uczęszczali na jego wykłady z lingwistyki ogólnej w latach 1907–1911. W Kursie Saussure nawoływał do „naukowego” badania języka, przeciwstawiając go porównawczemu językoznawstwu historycznemu XIX wieku. Dzieło to można uznać za jedno z największych osiągnięć myśli zachodniej: przyjmując za podstawę poszczególne słowa jako elementy strukturalne języka, językoznawstwo historyczne (lub „diachroniczne”) udowodniło pochodzenie i rozwój języków zachodnioeuropejskich ze wspólnego, Język indoeuropejski i wcześniejszy praindoeuropejski.

To właśnie badanie unikalnych wystąpień słów, z towarzyszącym założeniem, że podstawową „jednostką” języka jest w rzeczywistości pozytywne istnienie tych „elementów słownych”, zostało zakwestionowane przez Saussure'a. Jego praca była próbą zredukowania wielu faktów dotyczących języka, przypadkowo badanych przez lingwistykę porównawczą, do niewielkiej liczby twierdzeń. XIX-wiecznej szkole filologicznej porównawczej, jak pisze Saussure, „nie udało się stworzyć prawdziwej szkoły językoznawstwa”, ponieważ „nie rozumiała istoty przedmiotu badań” (3). Ta „esencja”, argumentuje, leży nie tylko w pojedynczych słowach – „pozytywnych substancjach” języka – ale także w formalnych powiązaniach, które pomagają tym substancjom istnieć.

„Test” języka Saussure’a opiera się na trzech założeniach. Po pierwsze: naukowe rozumienie języka opiera się nie na zjawisku historycznym, ale na zjawisku strukturalnym. Rozróżniał zatem poszczególne zjawiska języka – „zdarzenia mowy”, które definiuje jako „zwolnienie warunkowe” – od właściwego, jego zdaniem przedmiotu badań językoznawstwa, czyli systemu (kodu, struktury), który tymi zdarzeniami steruje („ język”). Takie systematyczne badania wymagają ponadto „synchronicznej” koncepcji relacji między elementami języka w danym momencie, a nie „diachronicznego” badania rozwoju języka na przestrzeni jego historii.

Hipoteza ta stała się prekursorką tego, co Roman Jakobson w 1929 roku nazwał „strukturalizmem” – teorii, w której „dowolny zbiór badanych zjawisk współczesna nauka, nie jest uważany za mechaniczną akumulację, ale jako strukturalną całość, w której element konstrukcyjny jest powiązany z funkcją” („Romantic” 711). W tym fragmencie Jacobson sformułował ideę Saussure’a dotyczącą definicji języka jako w przeciwieństwie do „maszynowego” wyliczania wydarzeń historycznych. Co więcej, Jacobson rozwija także inne założenie Saussure’a, które stało się prekursorem językoznawstwa strukturalnego: podstawowe elementy języka należy badać nie tyle w powiązaniu z ich przyczynami, ile z ich przyczynami. ich funkcje. Poszczególne zjawiska i wydarzenia (powiedzmy, historia pochodzenia poszczególnych słów indoeuropejskich) nie powinny być badane same w sobie i w systemie, w którym są one skorelowane z podobnymi składnikami. Był to radykalny zwrot w porównaniu zjawisk z otaczającą rzeczywistością, której znaczenie filozof Ernst Cassirer porównał do „nauki Galileusza, która w XVII wieku zrewolucjonizowała wyobrażenia o świecie materialnym”. Taki zwrot, jak zauważają Greimas i Kurte, zmienia ideę „interpretacji”, a w konsekwencji same wyjaśnienia. Zjawiska zaczęto interpretować nie w odniesieniu do przyczyn ich występowania, ale w odniesieniu do skutków, jakie mogą wywołać w teraźniejszości i przyszłości. Interpretacja przestała być niezależna od intencji człowieka (mimo że intencje mogą być bezosobowe, „nieświadome” w freudowskim znaczeniu tego słowa).

W swojej językoznawstwie Saussure szczególnie ukazuje ten zwrot w zmianie pojęcia słowa w językoznawstwie, które definiuje jako znak i opisuje pod kątem jego funkcji. Dla niego znak to połączenie dźwięku i znaczenia, „oznaczonego i oznaczenia” (66-67; w angielskim tłumaczeniu Roya Harrisa z 1983 r. – „znaczenie” i „sygnał”). Charakter tego połączenia jest „funkcjonalny” (ani jeden, ani drugi element nie może istnieć bez drugiego); co więcej, „jeden pożycza cechy od drugiego” (8). Tym samym Saussure definiuje główny element strukturalny języka – znak – i czyni podstawą językoznawstwa historycznego identyczność znaków ze słowami, co wymaga szczególnie wnikliwej analizy. Więc możemy zrozumieć różne znaczenia powiedzmy, to samo słowo „drzewo” – nie dlatego, że jest ono jedynie zbiorem pewnych cech, ale dlatego, że jest definiowane w języku jako element systemu znakowego, „strukturalnej całości”.

Ta względna („diakrytyczna”) koncepcja jedności leży u podstaw koncepcji wszystkich elementów języka w językoznawstwie strukturalnym. Jest to szczególnie widoczne w najbardziej oryginalnym odkryciu lingwistyki Saussure’a, w rozwoju koncepcji „fonemów” i „cech charakterystycznych” języka. Fonemy to najmniejsze możliwe do wymówienia i znaczące jednostki języka. To nie tylko dźwięki występujące w języku, ale „obrazy dźwiękowe” – zauważa Saussure, które postrzegane są przez rodzimych użytkowników języka jako mające znaczenie. (Zauważyć należy, że Elmar Holenstein nazywa lingwistykę Jakobsona, która według głównych założeń kontynuuje idee i koncepcje Saussure’a, „strukturalizmem fenomenologicznym”). Dlatego też czołowy mówca praskiej szkoły strukturalizmu Jan Mukarowski w 1937 roku zauważył, że „struktura. . . nie koncepcja empiryczna, ale fenomenologiczna; nie jest to sam wynik, ale zbiór znaczących relacji świadomości zbiorowej (pokolenia, innych itp.).” Podobną myśl wyraził w 1960 roku Lévi-Strauss, przywódca francuskiego strukturalizmu: „Struktura nie ma określonej treści; ma sens sam w sobie, a logiczna struktura, w której jest zawarta, jest odciskiem rzeczywistości”.

Z kolei fonemy, jako najmniejsze elementy językowe akceptowalne w odbiorze, stanowią odrębną, integralną „rzeczywistość fenomenologiczną”. Na przykład w języku angielskim dźwięk „t” można wymawiać na różne sposoby, ale we wszystkich przypadkach osoba mówiąca po angielsku będzie postrzegać go jako „t”. Wymawiane z aspiracją, z wysokim lub niskim uniesieniem języka, długi dźwięk „t” itp. W równym stopniu rozróżni znaczenie słów „do” i „do”. Co więcej, różnice między językami są takie, że odmiany jednego dźwięku w jednym języku mogą odpowiadać różnym fonemom w innym; na przykład „l” i „r” są różne w języku angielskim, podczas gdy w innych językach są odmianami tego samego fonemu (jak angielskie „t”, wymawiane jako przydechowe i bezprzydechowe). Ogromne słownictwo każdego języka naturalnego to zbiór kombinacji znacznie mniejszej liczby fonemów. Na przykład w języku angielskim do wymówienia i zapisania około miliona słów używa się tylko 40 fonemów.

Dźwięki języka reprezentują systematycznie zorganizowany zestaw cech. W latach dwudziestych i trzydziestych XX wieku, za Saussure’em, Jacobson i N.S. Trubetskoy zidentyfikowali „cechy charakterystyczne” fonemów. Cechy te opierają się na budowie narządów mowy – języka, zębów, strun głosowych – Saussure odnotowuje to w Kursie Lingwistyki Ogólnej, a Harris nazywa to „fonetyką fizjologiczną” (wcześniejsze tłumaczenie Baskina używa terminu „fonologia” ) - są połączone w „węzły” Durg przeciwko przyjacielowi, aby wydawać dźwięki. Powiedzmy, że w języku angielskim różnica między „t” i „d” polega na obecności lub braku „głosu” (napięcia strun głosowych) oraz na poziomie głosu, który odróżnia jeden fonem od drugiego. Fonologię można zatem uznać za przykład ogólnej maksymy językowej opisanej przez Saussure’a: „W języku są tylko różnice”. Ważniejsze nie jest nawet to: różnica zwykle implikuje dokładne warunki, pomiędzy którymi się znajduje; ale w języku istnieją tylko różnice bez precyzyjnych warunków. Niezależnie od tego, czy weźmiemy pod uwagę „znaczące” czy „oznaczone” – w języku nie ma pojęć ani dźwięków, które istniały przed rozwinięciem się systemu językowego.

W takiej strukturze analogie językowe definiowane są nie przez ich wrodzone cechy, ale przez relacje systemowe („strukturalne”).

Wspomniałem już, że fonologia w swoim rozwoju opierała się na ideach Saussure’a. Pomimo tego, że jego analizę fizjologii języka w naszych czasach, zdaniem Harrisa, „nazwano by „fizyczną”, w przeciwieństwie do „psychologicznej” czy „funkcjonalnej”, w Kursie jasno sformułował kierunek i podstawowe zasady fizjologii funkcjonalnej analiza języka. Jedyna jego praca opublikowana za jego życia, Memoire sur le systeme primitif des voyelles dans les langues indo-europeennes (Notatki o pierwotnym systemie samogłosek języków indoeuropejskich), opublikowana w 1878 r., była całkowicie zgodna z porównawczą językoznawstwem historycznym XIX wiek. Niemniej jednak w tej pracy, jak mówi Jonathan Culler, Saussure pokazał „płodność idei języka jako systemu powiązanych ze sobą zjawisk, nawet przy jego historycznej rekonstrukcji”. Analizując relacje między fonemami, wyjaśniając naprzemienność samogłosek we współczesnych językach grupy indoeuropejskiej, Saussure zasugerował, że oprócz kilku różnych dźwięków „a” muszą istnieć inne fonemy opisane formalnie. „Szczególnie imponujące w pracach Saussure’a” – podsumowuje Culler – „jest to, że prawie 50 lat później, wraz z odkryciem i rozszyfrowaniem hetyckiego pisma klinowego, odkryto fonem zapisany jako „h”, który zachowywał się zgodnie z przewidywaniami Saussure’a. Poprzez analizę formalną odkrył tak zwany dźwięk krtaniowy w językach indoeuropejskich.

W koncepcji względnej (diakrytycznej) definicji znaku, zarówno wyrażonej wprost, jak i sugerowanej w Kursie, kryje się trzecie kluczowe założenie językoznawstwa strukturalnego, zwane przez Saussure’a „arbitralnością znaku”. Oznacza to, że związek pomiędzy dźwiękiem i znaczeniem w języku jest pozbawiony motywacji: równie łatwo można połączyć słowo „arbre” i słowo „drzewo” z pojęciem „drzewo”. Co więcej, oznacza to, że dźwięk jest również dowolny: pojęcie „drzewa” można zdefiniować na podstawie obecności kory (z wyjątkiem palm) i wielkości (z wyjątkiem „niskich roślin drzewiastych” - krzewów). Z tego powinno być jasne, że wszystkie przedstawione przeze mnie założenia nie są podzielone na mniej lub bardziej ważne: każde z nich - systematyczny charakter znaków (najbardziej zrozumiały w „synchronicznym” badaniu języka), ich względna (diakrytyczna) istota, arbitralność znaków – wynika z reszty.

Zatem w językoznawstwie Saussure’a badane zjawisko rozumiane jest jako zbiór porównań i kontrastów języka. Język jest zarówno wyrazem znaczenia słów (oznaczeniem), jak i ich rezultatem (komunikacją) - i te dwie funkcje nigdy się nie pokrywają (patrz „Dekonstrukcja języka” Shleifera). W najnowszej wersji interpretacji zauważamy przemianę formy i treści, którą opisują Greimas i Courtet: kontrasty językowe definiują jej jednostki strukturalne, a jednostki te współdziałają na kolejnych poziomach, tworząc określoną treść znaczeniową. Ponieważ elementy języka są przypadkowe, podstawą nie może być ani kontrast, ani kombinacja. Oznacza to, że w języku cechy charakterystyczne tworzą kontrast fonetyczny na różnym poziomie zrozumienia, fonemy łączą się w kontrastujące morfemy, morfemy w słowa, słowa w zdania itp. W każdym razie cały fonem, słowo, zdanie itp. to więcej niż suma jej części (tak jak woda, w przykładzie Saussure'a, to coś więcej niż połączenie wodoru i tlenu).

Trzy założenia Kursu Lingwistyki Ogólnej doprowadziły Saussure'a do idei nowej nauki XX wieku, odrębnej od językoznawstwa, badającej „życie znaków w społeczeństwie”. Saussure nazwał tę naukę semiologią (od greckiego „semeion” - znak). „Nauka” semiotyki, która rozwinęła się w Europie Wschodniej w latach dwudziestych i trzydziestych XX wieku oraz w Paryżu w latach pięćdziesiątych i sześćdziesiątych XX wieku, rozszerzyła badanie języka i struktur językowych na ustalenia literackie komponowane (lub formułowane) przy użyciu tych struktur. Również pod koniec swojej kariery, równolegle z kursami lingwistyki ogólnej, Saussure podjął się „semiotycznej” analizy późnej poezji rzymskiej, próbując odkryć celowo skomponowane anagramy imion własnych. Metoda ta była pod wieloma względami przeciwieństwem racjonalizmu w jego analizie językowej: była próbą, jak pisze Saussure w jednym ze swoich 99 zeszytów, zbadania w systemie problemu „prawdopodobieństwa”, które „staje się podstawą wszystkiego”. ” Badania takie, jak twierdzi sam Saussure, pozwalają skupić się na „materialnej stronie” prawdopodobieństwa; „Słowo kluczowe”, którego anagramu szuka Saussure, jak przekonuje Jean Starobinsky, „jest dla poety narzędziem, a nie źródłem życia wiersza. Wiersz służy odwróceniu dźwięków słowa kluczowego.” Według Starobińskiego w tej analizie „Saussure nie zagłębia się w poszukiwanie ukrytych znaczeń”. Wręcz przeciwnie, w jego twórczości zauważalna jest chęć uniknięcia pytań związanych ze świadomością: „ponieważ poezja wyraża się nie tylko w słowach, ale także w tym, co te słowa generują, wykracza poza kontrolę świadomości i zależy wyłącznie od praw języka.”

Podjęta przez Saussure’a próba zbadania nazw własnych w późnej poezji rzymskiej (Tsvetan Todorov nazwał je skrótem „słowa… tuż przed jego zapisaniem”) podkreśla jeden z elementów jego analizy językowej – arbitralność znaków, a także formalna istota lingwistyki Saussure’a („Język” – przekonuje, „istotą jest forma, a nie zjawisko”), która wyklucza możliwość analizy znaczenia. Todorov konkluduje, że współczesne pisma Saussure’a wydają się niezwykle konsekwentne w niechęci do badania symboli [zjawisk mających jasno określone znaczenie]. . . . Badając anagramy, Saussure zwraca uwagę jedynie na powtórzenia, ale nie na poprzednie warianty. . . . Studiując Nibelungów, identyfikuje symbole tylko po to, aby przypisać je do błędnych odczytań: jeśli są niezamierzone, symbole nie istnieją. Przecież w swoich pismach z zakresu językoznawstwa ogólnego sugeruje istnienie semiologii opisującej więcej niż tylko znaki językowe; ale założenie to jest ograniczone faktem, że semiologia może opisywać jedynie przypadkowe, dowolne znaki.

Jeżeli rzeczywiście tak jest, to tylko dlatego, że nie potrafił sobie wyobrazić „intencji” bez przedmiotu; nie potrafił całkowicie pokonać przepaści pomiędzy formą a treścią – w jego pracach stało się to pytaniem. Zamiast tego odwoływał się do „legalności językowej”. Usytuowany pomiędzy, z jednej strony, dziewiętnastowiecznymi koncepcjami opartymi na historii i subiektywnych domysłach oraz opartymi na tych pojęciach metodami przygodnej interpretacji, a z drugiej, koncepcjami strukturalistycznymi, które Lévi-Strauss nazwał „kantyzmem bez transcendentalnego agent” – zacieranie opozycji pomiędzy formą i treścią (podmiotem i przedmiotem), znaczeniem i genezą w strukturalizmie, psychoanalizie, a nawet mechanice kwantowej – prace Ferlinanda de Saussure’a z zakresu lingwistyki i semiotyki stanowią punkt zwrotny w badaniu znaczenia w języku i kulturze.

Ronalda Shleifera

Literatura

1. Admoni V.G. Podstawy teorii gramatyki / V.G. Upomnienie; Akademia Nauk ZSRR.-M.: Nauka, 1964.-104p.

3. Arapow, M.V., Herts, M.M. Metody matematyczne w językoznawstwie. M., 1974.

4. Arnold I.V. Struktura semantyczna wyrazu we współczesnym języku angielskim i metody jej badania. /I.V. Arnold-L.: Edukacja, 1966. - 187 s.

6. Baszlykow A.M. Zautomatyzowany system tłumaczeń. / JESTEM. Baszlykow, A.A. Sokołow. - M.: FIMA LLC, 1997. - 20 s.

7. Baudouin de Courtenay: Dziedzictwo teoretyczne i nowoczesność: Streszczenia raportów międzynarodowej konferencji naukowej / wyd. Kondratiewa. - Kazań: KSU, 1995. - 224 s.

8. Gladky A.V., Elementy lingwistyki matematycznej. / . Gladky A.V., Melchuk I.A. -M., 1969. - 198 s.

9. Golovin, B.N. Język i statystyka. /B.N. Golovin - M., 1971. - 210 s.

10. Zvegintsev, V.A. Lingwistyka teoretyczna i stosowana. / VA Zvegintsev - M., 1969. - 143 s.

11. Kasevich, V.B. Semantyka. Składnia. Morfologia. // V.B. Kasevich -M., 1988. - 292 s.

12. Lekomtsev Yu.K. WPROWADZENIE do języka formalnego językoznawstwa / Yu.K. Lekomcew. - M.: Nauka, 1983, 204 s., il.

13. Dziedzictwo językowe Baudouina de Courtenay u schyłku XX w.: Streszczenia sprawozdań z międzynarodowej konferencji naukowo-praktycznej, która odbyła się w dniach 15-18 marca 2000 r. - Krasnojarsk, 2000. - 125 s.

Matwiejewa G.G. Ukryte znaczenia gramatyczne i identyfikacja osoby społecznej („portret”) mówiącego / G.G. Matwiejewa. - Rostów, 1999. - 174 s.

14. Melchuk, I.A. Doświadczenie w konstruowaniu modeli językowych „Znaczenie”<-->Tekst.”/I.A. Melchuk. – M., 1974. – 145 s.

15. Nelyubin L.L. Tłumaczenia i lingwistyka stosowana/L.L. Nielubin. - M.: Szkoła Podyplomowa, 1983. - 207 s.

16. O dokładnych metodach badań językowych: o tzw. „lingwistyce matematycznej” / O.S. Achmanowa, I.A. Melchuk, E.V. Paducheva i in. - M., 1961. - 162 s.

17. Piotrovsky L.G. Lingwistyka matematyczna: Podręcznik / L.G. Piotrowski, K.B. Bektaev, A.A. Piotrowska. - M.: Szkoła wyższa, 1977. - 160 s.

18. To samo. Tekst, maszyna, człowiek. - L., 1975. - 213 s.

19. To samo. Lingwistyka stosowana / wyd. A.S. Gerda. - L., 1986. - 176 s.

20. Revzin, I.I. Modele języka. M., 1963. Revzin, I.I. Współczesna językoznawstwo strukturalne. Problemy i metody. M., 1977. - 239 s.

21. Revzin, I.I., Rosenzweig, V.Yu. Podstawy tłumaczenia ogólnego i maszynowego/Revzin II.I., Rosenzweig, V.Yu. - M., 1964. - 401 s.

22. Slyusareva N.A. Teoria F. de Saussure’a w świetle współczesnej językoznawstwa / N.A. Slyusarewa. - M.: Nauka, 1975. - 156 s.

23. Sowa, L.Z. Lingwistyka analityczna/ L.Z. Sowa - M., 1970. - 192 s.

24. Saussure F. de. Notatki z językoznawstwa ogólnego / F. de Saussure; Za. od ks. - M.: Postęp, 2000. - 187 s.

25. To samo. Kurs lingwistyki ogólnej / Tłum. od ks. - Jekaterynburg, 1999. -426 s.

26. Statystyki mowy i automatyczna analiza tekst/odpowiedź. wyd. R.G. Piotrowski. L., 1980. - 223 s.

27. Stoll, P. Sets. Logika. Teorie aksjomatyczne./ R. Stoll; Za. z angielskiego - M., 1968. - 180 s.

28. Tenier, L. Podstawy składni strukturalnej. M., 1988.

29. Ubin I.I. Automatyzacja działalności tłumaczeniowej w ZSRR / I.I. Ubin, L.Yu. Korostelev, B.D. Tichomirow. - M., 1989. - 28 s.

30. Faure, R., Kofman, A., Denis-Papin, M. Matematyka współczesna. M., 1966.

31. Schenk, R. Konceptualne przetwarzanie informacji. M., 1980.

32. Shikhanovich, Yu.A. WSTĘP do matematyki współczesnej (pojęcia wstępne). M., 1965

33. Szczerba L.V. Samogłoski rosyjskie pod względem jakościowym i ilościowym / L.V. Szczerba - L.: Nauka, 1983. - 159 s.

34. Abdulla-zade F. Obywatel świata // Ogonyok - 1996. - nr 5. - s. 13

35. V.A. Uspienski. Przedmowa dla czytelników Nowego Przeglądu Literackiego do przekazów semiotycznych Andrieja Nikołajewicza Kołmogorowa. - Nowy Przegląd Literacki. -1997. - nr 24. - s. 18-23

36. Perlovsky L. Świadomość, język i kultura. - Wiedza to potęga. -2000. Nr 4 - s. 20-33

Wstęp? Teoria tłumaczenia wykładów