entropia informational a in traduce re a unor texte lirice

6
Entropia informaţională în traducerea unor texte lirice inst. Marian Ciuperceanu, Colegiul Naţional „Fraţii Buzeşti”,Craiova Rezumat Lucrarea îşi propune să analizeze din punct de vedere al entropiei informaţionale- concept probabilistic definit de C. E. Shannon (1916-2001), prin analogie cu entropia din termodinamică- o poezie în versiunea sa originală şi în traducere într-o limbă străină. Principiul fizic al creşterii entropiei în timp, dacă s- ar aplica şi-n acest domeniu al traducerii, ar impune o valoare superioară a entropiei informaţionale în cazul poeziei traduse în raport cu cea originală. Chiar dacă exemplul dat confirmă regula fizică, nu generalizăm rezultatul obţinut, având în vedere că traducerea unui text literar este marcată de personalitatea traducătorului. Alăturarea celor doi termeni „termodinamică” şi „mesaje”, ce provin din direcţii diferite, opuse chiar dacă ne gândim fizica studiază fenomenele naturii prin legi obiective, iar comunicarea interumană se caracterizează prin subiectivitate, pare bizară. La o privire mai atentă însă putem observa câteva similitudini. În fizică, noţiunea de entropie este o funcţie ce defineşte starea de dezordine a unui sistem fizic. Şi în teoria informaţiei putem vorbi de elemente de organizare ( sau dezorganizare ) a unui mesaj. Ambele entropii au în comun faptul că măsoară gradul de nedeterminare a unui fenomen. Într-un proces de comunicare apar doi poli: emiţătorul şi receptorul. Informaţia adusă de emiţător poate fi de multe ori diversificată, improbabilă, ceea ce aduce o oarecare dezordine. Pe de altă parte, informaţia transmisă este adesea deformată, deci entropică, dacă avem în vedere interesele de 1

Upload: omuantena

Post on 25-Jun-2015

35 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Entropia Informational A in Traduce Re A Unor Texte Lirice

Entropia informaţională în traducerea unor texte lirice

inst. Marian Ciuperceanu, Colegiul Naţional „Fraţii Buzeşti”,Craiova

RezumatLucrarea îşi propune să analizeze din punct de vedere al entropiei informaţionale-

concept probabilistic definit de C. E. Shannon (1916-2001), prin analogie cu entropia din termodinamică- o poezie în versiunea sa originală şi în traducere într-o limbă străină.

Principiul fizic al creşterii entropiei în timp, dacă s-ar aplica şi-n acest domeniu al traducerii, ar impune o valoare superioară a entropiei informaţionale în cazul poeziei traduse în raport cu cea originală. Chiar dacă exemplul dat confirmă regula fizică, nu generalizăm rezultatul obţinut, având în vedere că traducerea unui text literar este marcată de personalitatea traducătorului.

Alăturarea celor doi termeni „termodinamică” şi „mesaje”, ce provin din direcţii diferite, opuse chiar dacă ne gândim că fizica studiază fenomenele naturii prin legi obiective, iar comunicarea interumană se caracterizează prin subiectivitate, pare bizară. La o privire mai atentă însă putem observa câteva similitudini.

În fizică, noţiunea de entropie este o funcţie ce defineşte starea de dezordine a unui sistem fizic. Şi în teoria informaţiei putem vorbi de elemente de organizare ( sau dezorganizare ) a unui mesaj. Ambele entropii au în comun faptul că măsoară gradul de nedeterminare a unui fenomen.

Într-un proces de comunicare apar doi poli: emiţătorul şi receptorul. Informaţia adusă de emiţător poate fi de multe ori diversificată, improbabilă, ceea ce aduce o oarecare dezordine.

Pe de altă parte, informaţia transmisă este adesea deformată, deci entropică, dacă avem în vedere interesele de ordin politic, economico-financiar etc. ale emiţătorului de informaţii.

Starea de informaţie depinde nu numai de emiţător, de intenţiile şi logica expunerii mesajului, ci şi de felul cum o percepe receptorul. În zilele noastre, o informaţie vehiculează în toate direcţiile, devine mondială chiar - prin intermediul televiziunilor şi mass-mediei în general - , iar receptorii sunt numeroşi şi variaţi (cu culturi şi nivele de înţelegere diferite).

Sursele entropice pot să nu aibă legătură cu emiţătorul şi receptorul/receptorii: dacă există „zgomot” pe canalele de distribuţie, mesajul este afectat de distorsiuni şi erori, ceea ce are ca efect creşterea incertitudinii şi deci a entropiei.

Conform principiului al II-lea al termodinamicii, sistemele evoluează de la stările cu entropie mică spre stările cu entropie mai mare. Entropia dă astfel un sens fizic curgerii timpului . Acelaşi parametru – entropia – ar putea măsura nivelul de dezordine al sistemului economic, social, politic, stabilind sensul de desfăşurare a proceselor şi condiţiile de ireversibilitate. Trecerea, de exemplu, de la o economie centralizată, planificată la una de piaţă s-ar integra în principiul creşterii entropiei în timp, dacă identificăm o entropie mică în sistemele autoritare. Creşterea libertăţii individuale (producătoare de energie) în timp, pare de asemenea justificată de acelaşi principiu termodinamic.

1

Page 2: Entropia Informational A in Traduce Re A Unor Texte Lirice

Revenind însă la comunicare, constatăm că informaţia furnizată de un eveniment este– la fel ca-n fizică – o funcţie de probabilitatea sa: cu cât probabilitatea de producere a unui eveniment e mai mare, cu atât se aduce mai puţină informaţie. Creşterea entropiei (fizice) datorată ireversibilităţii proceselor, asociată cu observaţia că sistemele evoluează de la stări mai puţin probabile spre stări mai probabile sugerează de asemenea o legătură între entropia unei stări şi probabilitatea de realizare a acestei stări.

Toate aceste similitudini ne încurajează să presupunem că termodinamica ar putea da un sens fizic informaţiei.

Termodinamica statistică, pentru a explica fenomenele observate, permite examinarea proprietăţilor corpurilor şi evoluţiilor lor la scară moleculară. Având în vedere numărul mare al stărilor, ea aplică legile matematice ale probabilităţilor şi statisticii.

O stare macroscopică – definită de parametrii termodinamici - , este compatibilă cu un număr foarte mare de stări microscopice – definite de valorile individuale ale parametrilor particulelor microscopice. Fizicianul Boltzmann (1844-1906) postulează că numărul de microstări (w) compatibile cu o macrostare dată (număr numit pondere statistică) este măsura probabilităţii de realizare a macrostării. Aşadar, entropia (S) stării va trebui să fie o funcţie monotonă de ponderea statistică (w):

S = S (w) (1)Pentru a determina tipul funcţiei S=S(w), divizăm sistemul fizic (α) în două

subsisteme (α1, α2):

(2)

de ponderi statistice w1 şi respectiv w2. Deoarece fiecărei microstări a subsistemului α1 îi pot corespunde w2 microstări ale subsistemului α2, atunci ponderea statistică a sistemului reunit este:

(3)

Funcţia logaritmică fiind cea care transformă produsul în sumă, legătura funcţională dintre S şi w va fi:

(4)

formulă cunoscută sub numele de relaţia lui Boltzmann ( kB = R / NA fiind constanta lui Boltzmann). Deoarece w este cu atât mai mare cu cât starea este mai dezordonată, rezultă

creşterea entropiei ( în sistemele izolate când sistemul evoluează spre stări

cât mai dezordonate din punct de vedere microscopic.Şi starea informaţională poate fi definită în sine, la un moment dat, sub aspect

statistic. Sunetele (în vorbire) sau literele (în scriere) se organizează în silabe şi cuvinte, ultimele înşiruite la rândul lor într-un anumit fel (analog macrostărilor/ microstărilor din fizică). Astfel, putem pune în analogie statistica celor mai mici unităţi lingvistice cu capacitate distinctivă cu statistica moleculară.

C. E. Shannon (1916-2001) introduce în domeniul informaţional noţiunea de entropie informaţională ( „A mathematical theory of comunication”, Bell System Technical Journal, 27 (1948), p. 379-423, 623-656), concept analog celui de entropie din

2

Page 3: Entropia Informational A in Traduce Re A Unor Texte Lirice

termodinamică. El defineşte entropia informaţională de primul ordin după expresia stabilită de Boltzmann:

(5)

unde pi este probabilitatea de apariţie a stării „i” din totalul de n stări posibile.Solomon Marcus a analizat din punct de vedere al entropiei informaţionale [2] trei

poezii eminesciene de factură diferită şi a stabilit că poezia de inspiraţie folclorică are entropie mai mică.

Ne propunem , în continuare, să raportăm acest parametru informaţional global la un text şi la traducerea sa într-o limbă străină. Ne aşteptăm ca în urma traducerii textului original entropia informaţională să crească. Acest lucru ar arăta că traducerea (unui text oarecare şi a unei poezii – când trebuie căutate cuvinte rimate – în special) este şi un act creator. Pe de altă parte, ştiind evident că traducerea este ulterioară actului creaţiei originale, vrem să verificăm şi-n acest caz principiul creşterii entropiei în timp. Am luat în considerare poezia eminesciană „De-or trece anii…” în versiunea sa originală şi în traducerea ei în limba franceză ( „Si les ans passent…” ) de către Paul Miclău [3] (vezi tabelul 1).

Tabelul 1: Entropiile poeziilor originală şi traduse Poezia Entropia informaţională„De-or trece anii…” (versiune originală) 3,918722171„Si les ans passent…” (traducere de Paul Miclău) 3,922297386

Entropia informaţională a fost calculată (vezi tabelul frecvenţelor) cu ajutorul formulei lui Shannon (5) în care pi reprezintă probabilitatea apariţiei unei litere de rang „i” în poezia considerată (calculată ca raport între numărul de apariţii al literei respective şi numărul tuturor literelor din text). Pentru simplitate, am luat în calcul literele şi nu sunetele limbilor română şi franceză.Obţinerea unei valori superioare a entropiei informaţionale a poeziei traduse în raport cu poezia originală pare să confirme cele presupuse. Considerăm însă că traducerea literară mai ales este marcată de personalitatea traducătorului, ţine cont de intersubiectivitate şi interculturalitate. Când intervine traducerea, limba sursă este subtilă, iar limba ţintă este, în general, acuzată de sărăcie lexicală. În plus, în ceea ce priveşte strict textul liric, în varianta originală figurile poetice, care creează un element de surpriză, imprevizibilitate (şi care deci conduc la creşterea entropiei) pot fi mai penetrante. Din jocul acestor tendinţe, efectele pot fi variate în ceea ce priveşte entropia, astfel încât nu generalizăm rezultatul găsit anterior.

Bibliografie:1. G. Ciobanu, O. Gherman, L. Saliu, Fizica moleculară, termodinamică şi statistică

pentru perfecţionarea profesorilor, Editura Didactică şi Pedagogică, Bucureşti, 1983.2. C. E. Shannon, A mathematical theory of communication, Bell System Technical

Journal, 1948.3. Solomon Marcus, Poetica matematică, Editura Academiei R.S.R., Bucureşti, 1970.

3

Page 4: Entropia Informational A in Traduce Re A Unor Texte Lirice

4. G. Moisil, Termodinamică, Editura Academiei R.S.R., Bucureşti, 1988.5. Poezii-Poésii, Editura Fundaţiei Culturale Române, Bucureşti, 1999 (poezii de Mihai

Eminescu traduse de Paul Miclău).

4