Ferpi > News > Teoria dell’entropia: una correlazione con le Rp

Teoria dell’entropia: una correlazione con le Rp

13/01/2011

Spesso scienze differenti mutuano tra loro concetti che vengono applicati in ambiti anche molto distanti fra loro. _Luca Poma_ prende a prestito dalla termodinamica la teoria dell’entropia e la collega alla crisis communication e alla CSR, prospettando un paradigma dell’entropia della comunicazione.

di Luca Poma
La teoria dei segnali – che in parte è alla base della teoria dell’informazione – studia appunto le proprietà matematiche e statistiche dei segnali intesi come variazioni per un certo tempo dello stato fisico di un sistema o di una particolare grandezza fisica, com’è ad esempio una variazione dei parametri di campo elettromagnetico per i segnali radio. Tali variazioni consentono di rappresentare e trasmettere messaggi, in altre parole di trasferire informazione a distanza. In natura abbiamo diversi tipi di segnali, ma sono tutti accomunati dall’essere in larga misura “casuali”, mentre la teoria dei segnali ne studia la rappresentazione in modo da poterli poi manipolare in modo artificiale, ad uso e consumo dell’uomo, trattandoli anche matematicamente.
Dal momento che il sistema oggetto d’attenzione può essere il più disparato, inclusa ad esempio una mappa evoluta degli stakeholders o uno schema di previsione di scenari di crisi, mi chiedo perché non applicare questo tipo di teorie anche al campo della comunicazione convenzionale e non convenzionale e alle relazioni pubbliche: tanto più sarà alta la quantità d’incertezza associata ad una serie di eventi, tanto più sarà importante rimuovere l’incertezza ad essi associata, ottenendo le informazioni necessarie a predire o meno la realizzazione dell’evento stesso. Cos’è una strategia di RP se non la successione di una serie di azioni, in applicazione a un ben preciso progetto, il cui esito è incerto, in quanto correlato alle “reazioni” degli altri stakeholder coinvolti?
La possibile ambiguità sussistente tra “incertezza” e “informazione” non deve stupire, perchè esse sono due facce della stessa medaglia: senza incertezza non c’è informazione che valga qualcosa, perchè quanta più incertezza c’è nel segnale, tanto più “informativo” è rivelare qual è la reale tendenza del segnale stesso.
Gli studi antesignani sul concetto di entropia applicato alla teoria dell’informazione sono a firma di Claude Shannon: il suo primo lavoro su questo tema si trova nell’articolo dal titolo A Mathematical Theory of Communication, pubblicato nel lontano 1948. Com’è noto, l’entropia è originariamente un concetto proprio della teoria termodinamica: il termine tedesco Entropie deriva dal greco “dentro”, “cambiamento”, “rivolgimento”: indica quindi “dove va a finire” l’energia fornita a un certo sistema, con riguardo al legame tra movimento interno al corpo ed energia interna o calore. Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nell’anidride carbonica, nell’anidride solforosa e negli altri residui di combustione, oltre che in forma di calore. Per quanto – come ci conferma la fisica – non si sia persa energia nel processo di trasformazione, sappiamo bene che non possiamo invertire automaticamente il processo di combustione e “ricreare” dagli scarti il pezzo di carbone originale. La spiegazione a questa apparente contraddizione si trova nel secondo principio della termodinamica, che in termini discorsivi possiamo illustrare così: “ogni volta che una certa quantità di energia viene convertita da uno stato ad un altro, si ha una penalizzazione, che consiste nella degradazione di una parte dell’energia stessa in forma di calore, e questa parte in particolare non sarà più utilizzabile per produrre nuovo lavoro”.
Tuttavia questi concetti, oltre che in ambito termodinamico, sono stati mutuati anche dalla teoria dell’informazione, che misura la quantità di “incertezza” presente in un impulso o in un segnale, ed è esattamente l’accezione che stiamo prendendo in esame in questo breve saggio. L’entropia così intesa può essere descritta come il “minimo livello di complessità” di una certa variabile o di uno scenario: in poche parole, potremmo dire che l’entropia è “la misura del caos” (banalizzando, più entropia è uguale a più caos).
E’ di tutta evidenza il rapporto concettuale tra l’entropia termodinamica e l’entropia dell’informazione. Per meglio comprendere il concetto di entropia applicata alla teoria dell’informazione, consideriamo per semplificare un sistema fisico in date condizioni di temperatura, pressione e volume, e stabiliamone il valore dell’entropia, ovvero il grado di “disordine” relativo e quindi l’ammontare delle informazioni a noi disponibili. Supponiamo ora – lasciando invariati gli altri parametri fisici – di abbassare la temperatura del sistema: osserveremo che la sua entropia diminuisce, poiché con il diminuire della temperatura si rallenta il movimento delle molecole, e quindi – come diretta conseguenza – il grado di “ordine” del sistema aumenta.
Si tratta di un ordine statico, che corrisponde alla mancanza di movimento e di lavoro all’interno del sistema stesso: diminuendo l’entropia, diminuisce il caos, quindi aumenta l’ordine, e aumentando l’ordine invariabilmente aumenterà la quantità di informazioni disponibili sul sistema, perché esso risulterà “leggibile” con più facilità e ci trasmetterà maggiori certezze rispetto ad un sistema con un’entropia superiore, ovvero con un livello di caos maggiore e quindi con un più alto numero di variabili ipotizzabili. Per proseguire con il nostro esempio, ad una temperatura prossima allo zero assoluto, tutte le molecole saranno quasi ferme: l’entropia tenderà al minimo, l’ordine sarà il massimo possibile, e con esso si avrà la massima certezza d’informazione. Al contrario, alte temperature aumentano la “frenesia” all’interno del sistema, moltiplicano il numero di variabili possibili, e fanno quindi crescere esponenzialmente l’incertezza relativa dell’informazione, facendo tendere il sistema verso uno stato virtuale di “informazione zero”. Per un comunicatore, infatti, un numero di variabili eccessive rende di difficile interpretazione uno scenario: troppe informazioni sono eguali a nessuna informazione.
L’interesse primario del lavoro di Shannon fu che egli riuscì ad elaborare una serie articolata di logaritmi matematici per misurare l’entropia – e quindi la quantità d’informazione, ed anche il livello di auto-informazione media – di ogni possibile scenario considerato, ma soprattutto riuscì a dimostrare tali algoritmi facendone quindi un preciso standard di riferimento.
Come avevo già ricordato nel mio breve saggio del 2008 La Teoria dei Giochi: dalla strategia militare alle relazioni pubbliche, l’applicazioni di questo genere di paradigmi teorici possono rivelarsi a mio avviso di estremo interesse anche per noi comunicatori e relatori pubblici, qualora si desideri passare da un approccio meramente empirico ed “esperienziale” alla professione ad un approccio che preveda la possibilità, con l’aiuto dei matematici, di anticipare con più accuratezza scenari futuri, cosi come nella teoria dell’informazione si mira a prevedere l’esito di scambi di informazioni provenienti da sorgenti nuove e mai prima considerate, dette “senza memoria”, oppure anche da sorgenti “con memoria”, che presentano ragionevolmente una minore entropia in quanto i messaggi emessi dipendono in una certa misura da quelli emessi precedentemente, il che li rende appunto più prevedibili.
Questo genere di riflessioni sono state già fatte proprie dalle scienze sociali, e guarda caso nell’ambito dell’economia applicata alla responsabilità sociale d’impresa: Nicholas Georgescu-Roegen, applicando il secondo principio della termodinamica all’economia, e in particolare all’economia della produzione, ha elaborato una teoria economica che mette in discussione i “fondamentali” della decrescita: ogni processo produttivo non diminuisce l’entropia del pianeta, ma o la incrementa irreversibilmente o perlomeno la lascia uguale, ovvero, tanta più energia si trasforma in uno stato “indisponibile”, tanta più energia sarà sottratta alle generazioni future, e quindi tanta più entropia (disordine proporzionale) sarà riversato sull’ambiente che ci circonda.
Tanto più queste teorie potrebbero rivelarsi utili nel Crisis management, per la previsione di futuri scenari di crisi. Potrei ridefinire lo stato di crisi come “un repentino aumento del grado di entropia in un dato sistema”, sfruttando poi gli algoritmi matematici di Shannon per tentare di prevedere lo sviluppo del grado di caos all’interno dell’area in crisi.
La correlazione tra Crisis è CSR è a mio avviso di tutta evidenza, come ho già sostenuto in altri scritti: in quest’ottica, il Crisis management altro non è se non la tecnica di ridurre progressivamente e sistematicamente il livello di entropia sulla mappa degli stakeholder di un azienda, e la crisis communication l’applicazione della teoria dei segnali e della teoria dell’informazione al problema rappresentato dalla crisi, al fine di prevederne l’evoluzione e possibilmente risolverlo, a tutto beneficio degli stakeholder coinvolti nella crisi e più in generale di tutti gli stakeholder dell’azienda, ed anche degli stakeholder degli stekaholder, essendo l’azienda parte integrante di una rete neurale complessa che non può che giovarsi di un livello di entropia basso e della conseguente maggiore accessibilità alle informazioni disponibili, che spetterà poi ai relatori pubblici “lavorare”.
A margine, è simpatico riportare una curiosa nota storica, che ci ricorda l’enciclopedia on-line Wikipedia: Shannon interrogò Von Neumann sull’entropia, e i due ebbero per quanto ci è noto un unico scambio di opinioni tra loro. Come ricordò Shannon, “la mia più grande preoccupazione era come chiamarla, come definire questa teoria. Pensavo a qualcosa come ‘teoria dell’incertezza’. Ma quando ne parlai a Von Neumann, lui mi disse che avrei dovuto chiamarla ‘teoria dell’entropia’, per due motivi: primo perchè la mia ‘funzione di incertezza’ era già nota in meccanica statica con quel nome, e secondo perché nessuno sapeva con certezza cosa significasse ‘entropia’, e quindi in una qualunque discussione mi sarei sempre trovato in vantaggio” (!).
Sarebbe ora interessante ridefinire questa teoria nelle sue varie possibili applicazioni al Crisis management ed alla Crisis Communication, in stretta correlazione con la CSR e le relazioni pubbliche. Dopo aver riflettuto sul paradigma dell’entropia termodinamica e dell’entropia dell’informazione, possiamo ora tentare di ipotizzare un paradigma dell’“entropia della comunicazione”, tailored-made sulla nostra professione?

Breve bibliografia
• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D., Telecomunicazioni per l’ingegneria gestionale. Codifica di sorgente. Mezzi di trasmissione e collegamenti – Pitagora Editrice, 2004, ISBN 88-371-1561-X
• Chen X., Brent F., McKinnon B., Seker A., A Theory of Uncheatable Program Plagiarism Detection and Its Practical Implementation – 2002-05-05.
• Clausius R., Abhandlungen über die mechanische Wärmetheorie, 1864
• Cover T. M., J. A. Thomas, Elements of Information Theory – Wiley, 1991
• De Beauregard O., Irreversibilità, entropia, informazione: il secondo principio della scienza del tempo – Di Renzo Editore, 1994
• Fano R. M., Transmission of information; a statistical theory of communications. – M.I.T. Press, 1961
• Poma L., La Teoria dei Giochi: dalla strategia militare alle relazioni pubbliche, Ferpi News, 2008
• Poma L., Reti Neurali complesse: nuovi strumenti per la CSR – Ferpi News, 2009;
• Shannon C. E., A Mathematical Theory of Communication – Bell system Technical Journal, vol 27, lug e ott 1948
• Tribus M., McIrvine E.C., Energy and information – Scientific American, n. 224 (1971), pp. 178–184
• Wikipedia, enciclopedia libera, Entropia e teoria dell’informazione
• Wise M., Improved Detection Of Similarities in Computer Program And Other Texts – 1996
Eventi