Dupa mine, aceasta e cea mai plata definitie a informatiei. Informatia, pentru mine, e doar cea care contine un sens. Restul sunt .. date. Computerul lucreaza cu date, nu cu informatii, stiinta lucreaza cu date, nu cu informatii. E adevarat ca sensul e intotdeauna subiectiv, deci o informatie adevarata trebuie sa contina si ceva subiectiv. Asta implica cerinta ca informatia vine de la subiecti si e destinata unor subiecti. Restul e schimb de date, de evenimente sau simpla comunicare. Doua calculatoare pot sa comunice dar nu se pot informa. Ca sa se poata informa ar trebui sa inteleaga, iar ca sa inteleaga ar trebui sa existe un subiect, caci un obiect nu poate intelege. In concluzie, pentru mine, sensul face diferenta intre informatie si simple date "capabile sa declanseze reactii ale unui sistem". Cu definitia din dex si un simplu bobarnac constituie o informatie pentru ca se propaga material si poate declansa o reactie (violenta, biensur!). Eu leg informatia de inteligenta si sens.
Definiţiile astea!

Pentru a-l defini (ca termen primar, fundamental), trebuie să recurgem la descriere, raportându-l la situaţii / fapte / date sau în cadrul unui
sistem. După cum informaţiei îi este asociată sau nu o
semnificaţie, intrăm pe tărâmul teoriilor comunicării sau ale cuantificării informaţiei.
O schemă elementară a actului de comunicare (Meyer-Eppler) implică un
emiţător care extrage dintr-un
repertoriu un număr de
semne pe care le asamblează potrivit unui set de reguli (codificare) într-un
mesaj pe care îl transferă printr-un
canal fizic unui
receptor; acesta, primind mesajul, îl decodifică în raport cu propriul său
repertoriu. Premisa comunicării o constituie faptul că repertoriile de semne ale celor doi actori (emiţător şi receptor) conţin un minim de elemente comune care să-i permită receptorului să recunoască un număr de semne pe care mai apoi să le asambleze el însuşi (percepând astfel semnificaţii, forme etc.) şi eventual să le stocheze. Pentru amândoi, repertoriul din care se alimentează este dat de ambianţa socială (şirul de convenţii, care evoluează în timp).
Extinzând schema, emiţătorul poate fi şi
lumea exterioară în ansamblul ei, ceea ce depersonalizează prima parte a procesului. În acest caz, mesajul va fi
inteligibil în măsura în care receptorul poate discerne un ansamblu de semne care să aparţină propriului repertoriu.
Aici,
informaţia este definită ca măsură a cantităţii de
imprevizibilitate (noutate) pe care o aduce un mesaj, dar nu se măsoară după numărul de semne: astfel, dacă un mesaj este alcătuit din semne identice (redundanţă) repetate la infinit, informaţia este aproape zero (banalitate totală), pentru că nu aduce nimic nou receptorului. "Pe măsură ce procesul continuă să se desfăşoare în sistemele dotate cu memorie şi aprehensiune statistică, cum este inteligenţa umană, (...) repertoriul receptorului se va modifica, tinzând tot mai mult să se înglobeze în repertoriul emiţătorului, căruia îi este subordonat." (Abraham Moles,
Sociodinamica culturii).
În modelul matematic al lui Shannon (
Teoria Matematică a Informaţiei, 1948) şi Weaver, comunicarea informaţiei este un proces linear, de transmitere a mesajului (succesiune de semnale), valabil în cazul oricărui sistem fizic de comunicaţie. Elementele sale sunt: o
sursă de informaţii care produce un mesaj către emiţător, unde este transformat (codificat) într-un
semnal în funcţie de
canalul utilizat (aici un rol esenţial îl are factorul
zgomot sau informaţie perturbatoare, falsă), ajungând la
receptor, unde prin decodificare se realizează operaţiunea inversă, de reconstituire a mesajului conţinut în semnal, pentru a fi transmis
destinatarului.
Informaţia este o valoare matematică, reprezentând o măsură a ceea ce se transmite de la emiţător la receptor, independent de conţinutul mesajului.
Din această perspectivă, informaţia poate avea două sensuri fundamentale: desemnează o cantitate de informaţie ce poate fi transmisă (măsura de probabilitate a unui eveniment în interiorul unui sistem echiprobabil); sau o cantitate precisă de informaţie selecţionată care a fost de fapt transmisă şi receptată. De aceea, teoria informaţiei se concentrează asupra identităţii (gradului de fidelitate) dintre informaţia transmisă şi cea receptată, fără a se preocupa şi de semnificaţia ei (irelevantă pentru conţinutul de informaţie al unui mesaj).
Distincţia între
date şi
informaţie (ce
conţine un sens) se regăseşte într-o
Definiţie Generală a Informaţiei (GDI):
Astfel,
σ constituie o
unitate (elementară) de informaţie (având conţinut semantic) dacă şi numai dacă:
(GDI.1)
σ constă din una sau mai multe
date;
(GDI.2) datele care alcătuiesc
σ sunt
bine formalizate (structurate), adică sunt asamblate corect, potrivit regulilor (sintaxei) care guvernează sistemul, codul sau limbajul analizat;
(GDI.3) datele bine structurate ale
σ au
semnificaţie, adică trebuie să fie în concordanţă cu
semantica sistemului, codului sau limbajului.
http://plato.stanford.edu/entries/information-semantic/#1.2Ar urma să trecem la definiţia
datelor, nu?

P.S. Există şi o teorie algoritmică a informaţiei, elaborată de Gregory Chaitin, pe care el o descrie ca fiind "the result of putting Shannon's information theory and Turing's computability theory into a cocktail shaker and shaking vigorously."
http://en.wikipedia.org/wiki/Algorithmic_information_theory