Le informazioni sono dati in varie forme.  Concetto di informazione.  L'informazione informatica sembra che

Le informazioni sono dati in varie forme. Concetto di informazione. L'informazione informatica sembra che

L'informazione è informazione su qualcosa

Concetto e tipologie di informazione, trasmissione ed elaborazione, ricerca e archiviazione delle informazioni

Espandi i contenuti

Comprimi contenuto

L'informazione è, definizione

L'informazione è qualsiasi informazione ricevuta e trasmessa, archiviata da varie fonti. L'informazione è l'intera raccolta di informazioni sul mondo che ci circonda, su tutti i tipi di processi che si verificano in esso e che possono essere percepiti da organismi viventi, macchine elettroniche e altri sistemi di informazione.

- Questo informazioni significative su qualcosa, quando anche la forma della sua presentazione è informazione, cioè ha una funzione di formattazione secondo la sua stessa natura.

L'informazione è tutto ciò che può essere integrato con le nostre conoscenze e ipotesi.

L'informazione è informazioni su qualcosa, indipendentemente dalla forma della sua presentazione.

L'informazione è un prodotto mentale di qualsiasi organismo psicofisico prodotto da esso utilizzando qualsiasi mezzo chiamato mezzo di informazione.

L'informazione è informazioni percepite dagli esseri umani e (o) dagli specialisti. dispositivi come riflesso dei fatti del mondo materiale o spirituale nel processo di comunicazione.

L'informazione è dati organizzati in modo tale che abbiano senso per la persona che li gestisce.

L'informazione è il significato che una persona attribuisce ai dati in base alle convenzioni conosciute utilizzate per rappresentarli.


L'informazione è informazioni, spiegazioni, presentazioni.

L'informazione è qualsiasi dato o informazione che interessi a qualcuno.

L'informazione è informazioni su oggetti e fenomeni dell'ambiente, i loro parametri, proprietà e stato, che vengono percepiti dai sistemi di informazione (organismi viventi, macchine di controllo, ecc.) nel processo della vita e del lavoro.

Lo stesso messaggio informativo (articolo di giornale, pubblicità, lettera, telegramma, certificato, racconto, disegno, trasmissione radiofonica, ecc.) può contenere quantità diverse di informazioni per persone diverse, a seconda della loro conoscenza precedente, del livello di comprensione di questo messaggio e interesse per esso.

Nei casi in cui parlano di lavoro automatizzato con informazioni utilizzando dispositivi tecnici, non sono interessati al contenuto del messaggio, ma a quanti caratteri contiene questo messaggio.

In relazione all'elaborazione dei dati informatici, per informazione si intende una determinata sequenza di designazioni simboliche (lettere, numeri, immagini grafiche e suoni codificati, ecc.), Portanti un carico semantico e presentate in una forma comprensibile al computer. Ogni nuovo carattere in tale sequenza di caratteri aumenta il volume di informazioni del messaggio.


Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Ad esempio, il concetto di “informazione” è basilare in un corso di informatica, ed è impossibile definirlo attraverso altri concetti più “semplici” (così come in geometria, ad esempio, è impossibile esprimere il contenuto delle informazioni). concetti base “punto”, “retta”, “piano” attraverso concetti più semplici).


Il contenuto dei concetti fondamentali di base in qualsiasi scienza dovrebbe essere spiegato con esempi o identificato confrontandoli con il contenuto di altri concetti. Nel caso del concetto “informazione”, il problema della sua definizione è ancora più complesso, trattandosi di un concetto scientifico generale. Questo concetto è utilizzato in varie scienze (informatica, cibernetica, biologia, fisica, ecc.), e in ciascuna scienza il concetto di “informazione” è associato a diversi sistemi di concetti.


Concetto di informazione

Nella scienza moderna vengono considerati due tipi di informazioni:

L'informazione oggettiva (primaria) è la proprietà degli oggetti materiali e dei fenomeni (processi) di generare una varietà di stati, che attraverso le interazioni (interazioni fondamentali) vengono trasmessi ad altri oggetti e impressi nella loro struttura.

Le informazioni soggettive (semantiche, semantiche, secondarie) sono il contenuto semantico delle informazioni oggettive su oggetti e processi del mondo materiale, formate dalla coscienza umana con l'aiuto di immagini semantiche (parole, immagini e sensazioni) e registrate su un supporto materiale.


Nel senso quotidiano, l'informazione è informazione sul mondo circostante e sui processi che si verificano in esso, percepiti da una persona o da un dispositivo speciale.

Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Secondo il concetto di K. Shannon, l’informazione viene rimossa dall’incertezza, cioè informazioni che dovrebbero rimuovere, in un modo o nell'altro, l'incertezza esistente nel consumatore prima di riceverlo ed espandere la sua comprensione dell'oggetto con informazioni utili.


Dal punto di vista di Gregory Beton, l'unità elementare di informazione è una "differenza non indifferente" o differenza effettiva per un sistema di percezione più ampio. Chiama “potenziali” quelle differenze che non vengono percepite e “effettive” quelle percepite. “L’informazione consiste in differenze che non sono indifferenti” (c) “Ogni percezione dell’informazione è necessariamente la ricezione di informazioni sulla differenza”. Dal punto di vista dell'informatica, l'informazione ha una serie di proprietà fondamentali: novità, pertinenza, affidabilità, oggettività, completezza, valore, ecc. La scienza della logica si occupa principalmente dell'analisi delle informazioni. La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di informazione era considerato dai filosofi antichi.

Prima dell’inizio della Rivoluzione Industriale, determinare l’essenza dell’informazione rimaneva prerogativa soprattutto dei filosofi. Successivamente, la nuova scienza della cibernetica iniziò a considerare le questioni della teoria dell'informazione.

A volte, per comprendere l'essenza di un concetto, è utile analizzare il significato della parola con cui viene indicato questo concetto. Chiarire la forma interna di una parola e studiare la storia del suo utilizzo può gettare una luce inaspettata sul suo significato, oscurato dal consueto uso "tecnologico" della parola e dalle connotazioni moderne.

La parola informazione è entrata nella lingua russa nell'era petrina. Fu registrato per la prima volta nei “Regolamenti Spirituali” del 1721 nel significato di “idea, concetto di qualcosa”. (Nelle lingue europee è stato stabilito prima - intorno al XIV secolo.)

In base a questa etimologia, per informazione si può intendere qualsiasi cambiamento significativo di forma o, in altre parole, qualsiasi traccia registrata materialmente, formata dall'interazione di oggetti o forze e suscettibile di comprensione. L’informazione, quindi, è una forma convertita di energia. Il portatore di informazioni è un segno e il metodo della sua esistenza è l'interpretazione: identificare il significato di un segno o di una sequenza di segni.

Il significato può essere un evento ricostruito a partire da un segno che ne ha causato il verificarsi (nel caso di segni “naturali” e involontari, come tracce, testimonianze, ecc.), oppure un messaggio (nel caso di segni convenzionali inerenti alla sfera della lingua). È il secondo tipo di segni che costituisce il corpo della cultura umana, che, secondo una definizione, è "un insieme di informazioni trasmesse non ereditariamente".

I messaggi possono contenere informazioni su fatti o interpretazione di fatti (dal latino interpretatio, interpretazione, traduzione).

Un essere vivente riceve informazioni attraverso i sensi, così come attraverso la riflessione o l'intuizione. Lo scambio di informazioni tra soggetti è comunicazione o comunicazione (dal latino communicatio, messaggio, trasferimento, derivato a sua volta dal latino communico, rendere comune, comunicare, parlare, connettere).

Da un punto di vista pratico, le informazioni vengono sempre presentate sotto forma di messaggio. Il messaggio informativo è associato alla fonte del messaggio, al destinatario del messaggio e al canale di comunicazione.


Ritornando all'etimologia latina della parola informazione, proviamo a rispondere alla domanda su cosa viene data esattamente la forma qui.

È ovvio che, in primo luogo, si tratta di un certo significato, il quale, essendo inizialmente informe e inespresso, esiste solo potenzialmente e deve essere “costruito” per poter essere percepito e trasmesso.

In secondo luogo, alla mente umana, che è addestrata a pensare in modo strutturato e chiaro. In terzo luogo, a una società che, proprio perché i suoi membri condividono questi significati e li usano insieme, acquisisce unità e funzionalità.

L'informazione come significato intelligente espresso è conoscenza che può essere immagazzinata, trasmessa ed essere la base per la generazione di altra conoscenza. Le forme di conservazione della conoscenza (memoria storica) sono diverse: dai miti, cronache e piramidi alle biblioteche, musei e database informatici.

Le informazioni sono informazioni sul mondo che ci circonda, sui processi che si verificano in esso, che vengono percepiti da organismi viventi, macchine di controllo e altri sistemi di informazione.

La parola "informazione" è latina. Nel corso della sua lunga vita, il suo significato ha subito un'evoluzione, espandendo o restringendo estremamente i suoi confini. Inizialmente la parola “informazione” significava: “rappresentazione”, “concetto”, poi “informazione”, “trasmissione di messaggi”.


Negli ultimi anni, gli scienziati hanno deciso che il significato consueto (universalmente accettato) della parola “informazione” è troppo elastico e vago, e gli hanno dato il seguente significato: “una misura di certezza in un messaggio”.

La teoria dell’informazione è stata portata in vita dalle esigenze della pratica. La sua origine è associata al lavoro di Claude Shannon “Teoria matematica della comunicazione”, pubblicato nel 1946. I fondamenti della teoria dell'informazione si basano sui risultati ottenuti da molti scienziati. Nella seconda metà del 20° secolo, il globo brulicava di informazioni trasmesse lungo i cavi telefonici e telegrafici e i canali radio. Successivamente apparvero i computer elettronici: elaboratori di informazioni. E per quel tempo, il compito principale della teoria dell'informazione era, prima di tutto, aumentare l'efficienza dei sistemi di comunicazione. La difficoltà nel progettare e gestire mezzi, sistemi e canali di comunicazione è che non è sufficiente che il progettista e l'ingegnere risolvano il problema dal punto di vista fisico ed energetico. Da questi punti di vista il sistema può risultare il più avanzato ed economico. Ma quando si creano sistemi di trasmissione, è importante prestare attenzione a quante informazioni passeranno attraverso questo sistema di trasmissione. Dopotutto, le informazioni possono essere misurate quantitativamente, contate. E in tali calcoli agiscono nel modo più consueto: astraono dal significato del messaggio, così come abbandonano la concretezza nelle operazioni aritmetiche a tutti noi familiari (passando dall'addizione di due mele e tre mele all'addizione di numeri in generale: 2+3).


Gli scienziati hanno affermato di "ignorare completamente la valutazione umana delle informazioni". Ad una serie sequenziale di 100 lettere, ad esempio, assegnano un certo significato di informazione, senza prestare attenzione se questa informazione abbia senso e se, a sua volta, abbia senso nell'applicazione pratica. L’approccio quantitativo è la branca più sviluppata della teoria dell’informazione. Secondo questa definizione, una raccolta di 100 lettere (una frase di 100 lettere tratta da un giornale, un'opera di Shakespeare o il teorema di Einstein) contiene esattamente la stessa quantità di informazioni.


Questa definizione di quantità di informazione è estremamente utile e pratica. Corrisponde esattamente al compito dell'ingegnere delle comunicazioni, che deve trasmettere tutte le informazioni contenute nel telegramma inviato, indipendentemente dal valore di tali informazioni per il destinatario. Il canale di comunicazione è senz'anima. Una cosa è importante per il sistema di trasmissione: trasmettere la quantità richiesta di informazioni in un determinato tempo. Come calcolare la quantità di informazioni in un particolare messaggio?

La valutazione della quantità di informazioni si basa sulle leggi della teoria della probabilità o, più precisamente, è determinata attraverso la probabilità degli eventi. Questo è comprensibile. Un messaggio ha valore e trasporta informazioni solo quando da esso apprendiamo l'esito di un evento di natura casuale, quando è in una certa misura inaspettato. Dopotutto, il messaggio su ciò che è già noto non contiene alcuna informazione. Quelli. Se, ad esempio, qualcuno ti chiama al telefono e dice: "È chiaro di giorno e buio di notte", allora un messaggio del genere ti sorprenderà solo con l'assurdità di affermare qualcosa di ovvio e noto a tutti, e non con le notizie che contiene. Un'altra cosa, ad esempio, è il risultato di una gara. Chi arriverà per primo? In questo caso il risultato è difficile da prevedere: quanto più casuali sono gli esiti di un evento che ci interessa, tanto più prezioso è il messaggio sul suo risultato e maggiore è la quantità di informazioni. Un messaggio relativo a un evento che ha solo due esiti ugualmente possibili contiene una singola unità di informazione chiamata bit. La scelta dell'unità informativa non è casuale. È associato al modo binario più comune di codificarlo durante la trasmissione e l'elaborazione. Proviamo, almeno nella forma più semplificata, a immaginare il principio generale della valutazione quantitativa dell'informazione, che è la pietra angolare di tutta la teoria dell'informazione.


Sappiamo già che la quantità di informazioni dipende dalla probabilità di determinati esiti di un evento. Se un evento, come dicono gli scienziati, ha due esiti ugualmente probabili, ciò significa che la probabilità di ciascun risultato è 1/2. Questa è la probabilità che si ottenga testa o croce lanciando una moneta. Se un evento ha tre esiti ugualmente probabili, la probabilità di ciascuno è 1/3. Si noti che la somma delle probabilità di tutti i risultati è sempre uguale a uno: dopo tutto, tra tutti i possibili risultati si verificherà sicuramente. Un evento, come tu stesso capisci, può avere esiti inegualmente probabili. Quindi, in una partita di calcio tra una squadra forte e una debole, la probabilità che la squadra forte vinca è alta, ad esempio 4/5. La probabilità di pareggio è molto più bassa, ad esempio 3/20. La probabilità di sconfitta è molto piccola.


Si scopre che la quantità di informazioni è una misura per ridurre l'incertezza di una determinata situazione. Varie quantità di informazioni vengono trasmesse sui canali di comunicazione e la quantità di informazioni che passano attraverso il canale non può essere superiore alla sua capacità. Ed è determinato dalla quantità di informazioni che passano qui nell'unità di tempo. Uno degli eroi del romanzo di Jules Verne L'isola misteriosa, il giornalista Gideon Spillett, ha trasmesso telefonicamente un capitolo della Bibbia in modo che i suoi concorrenti non potessero utilizzare la connessione telefonica. In questo caso, il canale era completamente caricato e la quantità di informazioni era pari a zero, poiché le informazioni a lui note venivano trasmesse all'abbonato. Ciò significa che il canale era inattivo, trasmettendo un numero di impulsi rigorosamente definito senza caricarli di nulla. Nel frattempo, maggiore è la quantità di informazioni trasportate da ciascuno di un certo numero di impulsi, maggiore è l'utilizzo della capacità del canale. Pertanto, è necessario codificare saggiamente le informazioni, trovare un linguaggio economico e sobrio per trasmettere i messaggi.


Le informazioni vengono “setacciate” nel modo più approfondito. Nel telegrafo, le lettere più frequenti, le combinazioni di lettere e persino intere frasi sono rappresentate da un insieme più breve di zeri e uno, mentre quelle che ricorrono meno frequentemente sono rappresentate da un insieme più lungo. Nel caso in cui la lunghezza della parola in codice viene ridotta per i simboli frequenti e aumentata per quelli rari, si parla di codifica efficace delle informazioni. Ma in pratica, accade spesso che il codice risultante dal "vagliamento" più accurato, il codice è conveniente ed economico, possa distorcere il messaggio a causa di interferenze, cosa che, sfortunatamente, accade sempre nei canali di comunicazione: suono distorsione nel telefono, interferenze atmosferiche nella radio, distorsione o oscuramento dell'immagine in televisione, errori di trasmissione nel telegrafo. Questa interferenza, o come lo chiamano gli esperti, rumore, attacca l'informazione. E questo porta alle sorprese più incredibili e, naturalmente, spiacevoli.


Pertanto, per aumentare l'affidabilità nella trasmissione e nell'elaborazione delle informazioni, è necessario introdurre caratteri aggiuntivi, una sorta di protezione contro la distorsione. Loro - questi simboli extra - non portano il contenuto effettivo del messaggio, sono ridondanti. Dal punto di vista della teoria dell'informazione, tutto ciò che rende un linguaggio colorato, flessibile, ricco di sfumature, sfaccettato, multivalore è ridondanza. Quanto è ridondante da questo punto di vista la lettera di Tatyana a Onegin! Quanta informazione in eccesso c'è in esso per un messaggio breve e comprensibile "Ti amo"! E quanto sono accurati dal punto di vista informativo i segnali disegnati a mano, comprensibili a tutti coloro che oggi entrano nella metropolitana, dove al posto delle parole e delle frasi degli annunci ci sono laconici segni simbolici che indicano: “Ingresso”, “Uscita”.


A questo proposito è utile ricordare un aneddoto raccontato una volta dal famoso scienziato americano Benjamin Franklin su un cappellaio che invitò i suoi amici a discutere il progetto di un'insegna: avrebbe dovuto disegnare un cappello sull'insegna e scrivere: “John Thompson , un cappellaio, produce e vende cappelli per contanti.”. Uno degli amici ha notato che le parole "in contanti" non sono necessarie: un simile promemoria sarebbe offensivo per l'acquirente. Un altro ha anche trovato superflua la parola “vende”, poiché è ovvio che il cappellaio vende cappelli e non li regala gratuitamente. Il terzo pensava che le parole “fabbricante di cappelli” e “fa cappelli” fossero una tautologia inutile, e le ultime parole furono scartate. Il quarto ha suggerito di eliminare anche la parola "cappellaio": il cappello dipinto dice chiaramente chi è John Thompson. Infine il quinto insisteva che per l'acquirente non faceva alcuna differenza se il cappellaio si chiamava John Thompson o qualcos'altro e suggeriva di rinunciare a questa indicazione, così alla fine sull'insegna non rimase altro che il cappello. Naturalmente, se le persone utilizzassero solo questo tipo di codici, senza ridondanza nei messaggi, tutti i "moduli di informazione" - libri, rapporti, articoli - sarebbero estremamente brevi. Ma perderebbero in chiarezza e bellezza.

Le informazioni possono essere suddivise in tipologie secondo diversi criteri: in verità: vero e falso;

attraverso la percezione:

Visivo: percepito dagli organi della vista;

Uditivo: percepito dagli organi dell'udito;

Tattile: percepito dai recettori tattili;

Olfattivo - percepito dai recettori olfattivi;

Gustativo - percepito dalle papille gustative.


secondo il modulo di presentazione:

Testo: trasmesso sotto forma di simboli destinati a denotare lessemi della lingua;

Numerico - sotto forma di numeri e segni che indicano operazioni matematiche;

Grafica: sotto forma di immagini, oggetti, grafici;

Suono: trasmissione orale o registrata di lessemi linguistici mediante mezzi uditivi.


intenzionalmente:

Messa: contiene informazioni banali e opera con una serie di concetti comprensibili alla maggior parte della società;

Speciale: contiene una serie specifica di concetti; quando utilizzata, vengono trasmesse informazioni che potrebbero non essere comprensibili alla maggior parte della società, ma che sono necessarie e comprensibili all'interno del ristretto gruppo sociale in cui tali informazioni vengono utilizzate;

Segreto: trasmesso a una ristretta cerchia di persone e attraverso canali chiusi (protetti);

Personale (privato): un insieme di informazioni su una persona che determina lo stato sociale e i tipi di interazioni sociali all'interno della popolazione.


per valore:

Rilevante: informazioni preziose in un dato momento nel tempo;

Affidabile: informazioni ottenute senza distorsioni;

Comprensibile: informazioni espresse in un linguaggio comprensibile a coloro a cui sono destinate;

Completo: informazioni sufficienti per prendere la giusta decisione o comprensione;

Utile: l'utilità delle informazioni è determinata dal soggetto che ha ricevuto le informazioni in base all'ambito delle possibilità di utilizzo.


Il valore dell'informazione nei diversi campi del sapere

Oggigiorno nella teoria dell'informazione vengono sviluppati molti sistemi, metodi, approcci e idee. Tuttavia, gli scienziati ritengono che le nuove tendenze nella teoria dell'informazione si aggiungeranno alle tendenze moderne e appariranno nuove idee. A prova della correttezza dei loro presupposti, citano la natura “viva” e in via di sviluppo della scienza, sottolineando che la teoria dell'informazione viene introdotta sorprendentemente rapidamente e saldamente nelle più diverse aree della conoscenza umana. La teoria dell'informazione è penetrata nella fisica, nella chimica, nella biologia, nella medicina, nella filosofia, nella linguistica, nella pedagogia, nell'economia, nella logica, nelle scienze tecniche e nell'estetica. Secondo gli stessi esperti, la dottrina dell'informazione, nata per esigenze della teoria delle comunicazioni e della cibernetica, ha varcato i loro confini. E ora, forse, abbiamo il diritto di parlare di informazione come di un concetto scientifico che mette nelle mani dei ricercatori un metodo teorico-informativo con l'aiuto del quale si può penetrare in molte scienze sulla natura vivente e inanimata, sulla società, che permetterà non solo di guardare tutti i problemi da una nuova prospettiva, ma anche di vedere ciò che non si è ancora visto. Ecco perché il termine "informazione" si è diffuso nel nostro tempo, diventando parte di concetti come sistema informativo, cultura dell'informazione e persino etica dell'informazione.


Molte discipline scientifiche utilizzano la teoria dell'informazione per evidenziare nuove direzioni nelle vecchie scienze. È così che sono nate, ad esempio, la geografia dell’informazione, l’economia dell’informazione e il diritto dell’informazione. Ma il termine "informazione" ha acquisito un'importanza estremamente grande in connessione con lo sviluppo della più recente tecnologia informatica, l'automazione del lavoro mentale, lo sviluppo di nuovi mezzi di comunicazione ed elaborazione delle informazioni e soprattutto con l'emergere dell'informatica. Uno dei compiti più importanti della teoria dell'informazione è lo studio della natura e delle proprietà delle informazioni, la creazione di metodi per elaborarle, in particolare la trasformazione di un'ampia varietà di informazioni moderne in programmi informatici, con l'aiuto dei quali l'automazione del lavoro mentale - una sorta di rafforzamento dell'intelligenza e quindi dello sviluppo delle risorse intellettuali della società.


La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di “informazione” è basilare in un corso di informatica, ma è impossibile definirlo attraverso altri concetti più “semplici”. Il concetto di “informazione” è utilizzato in varie scienze, e in ogni scienza il concetto di “ informazione” è associata a diversi sistemi di concetti. Informazioni in biologia: la biologia studia la natura vivente e il concetto di “informazione” è associato al comportamento appropriato degli organismi viventi. Negli organismi viventi l'informazione viene trasmessa e immagazzinata utilizzando oggetti di diversa natura fisica (stato del DNA), che sono considerati segni di alfabeti biologici. Le informazioni genetiche vengono ereditate e archiviate in tutte le cellule degli organismi viventi. Approccio filosofico: l'informazione è interazione, riflessione, cognizione. Approccio cibernetico: l'informazione è la caratteristica di un segnale di controllo trasmesso su una linea di comunicazione.

Il ruolo dell'informazione in filosofia

Il tradizionalismo del soggettivo dominava costantemente nelle prime definizioni dell'informazione come categoria, concetto, proprietà del mondo materiale. L'informazione esiste al di fuori della nostra coscienza e può riflettersi nella nostra percezione solo come risultato dell'interazione: riflessione, lettura, ricezione sotto forma di segnale, stimolo. L'informazione non è materiale, come tutte le proprietà della materia. L'informazione sta nel seguente ordine: materia, spazio, tempo, sistematicità, funzione, ecc., che sono i concetti fondamentali di una riflessione formalizzata della realtà oggettiva nella sua distribuzione e variabilità, diversità e manifestazioni. L'informazione è una proprietà della materia e ne riflette le proprietà (stato o capacità di interagire) e la quantità (misura) attraverso l'interazione.


Da un punto di vista materiale, l'informazione è l'ordine degli oggetti nel mondo materiale. Ad esempio, l'ordine delle lettere su un foglio di carta secondo determinate regole è un'informazione scritta. L'ordine dei punti multicolori su un foglio di carta secondo determinate regole è un'informazione grafica. L'ordine delle note musicali è un'informazione musicale. L'ordine dei geni nel DNA è un'informazione ereditaria. L'ordine dei bit in un computer è l'informazione del computer, ecc. e così via. Per effettuare lo scambio di informazioni è richiesta la presenza delle condizioni necessarie e sufficienti.

Le condizioni necessarie:

La presenza di almeno due oggetti diversi del mondo materiale o immateriale;

La presenza di una proprietà comune tra gli oggetti che consente di identificarli come portatori di informazioni;

La presenza di una proprietà specifica negli oggetti che consente loro di distinguere gli oggetti l'uno dall'altro;

La presenza di una proprietà spaziale che consente di determinare l'ordine degli oggetti. Ad esempio, la disposizione delle informazioni scritte su carta è una proprietà specifica della carta che consente di disporre le lettere da sinistra a destra e dall'alto verso il basso.


C'è una sola condizione sufficiente: la presenza di un soggetto in grado di riconoscere le informazioni. Questo è l’uomo e la società umana, società di animali, robot, ecc. Un messaggio informativo viene costruito selezionando copie di oggetti da una base e disponendo questi oggetti nello spazio in un determinato ordine. La lunghezza del messaggio informativo è definita come il numero di copie degli oggetti base ed è sempre espressa come numero intero. È necessario distinguere tra la lunghezza di un messaggio informativo, che è sempre misurata in un numero intero, e la quantità di conoscenza contenuta in un messaggio informativo, che è misurata in un'unità di misura sconosciuta. Da un punto di vista matematico, l'informazione è una sequenza di numeri interi scritti in un vettore. I numeri sono il numero dell'oggetto nella base informativa. Il vettore è detto invariante informativo poiché non dipende dalla natura fisica degli oggetti base. Lo stesso messaggio informativo può essere espresso in lettere, parole, frasi, file, immagini, note, canzoni, videoclip e qualsiasi combinazione di quanto sopra.

Il ruolo dell'informazione in fisica

Le informazioni sono informazioni sul mondo circostante (oggetto, processo, fenomeno, evento), che è oggetto di trasformazione (inclusa archiviazione, trasmissione, ecc.) e viene utilizzata per sviluppare comportamenti, per il processo decisionale, per la gestione o per l'apprendimento.


Gli elementi caratteristici delle informazioni sono i seguenti:

Questa è la risorsa più importante della produzione moderna: riduce il bisogno di terra, manodopera, capitale e riduce il consumo di materie prime ed energia. Quindi, ad esempio, se hai la possibilità di archiviare i tuoi file (cioè avere tali informazioni), non devi spendere soldi per acquistare nuovi floppy disk;

Le informazioni danno vita a nuove produzioni. Ad esempio, l'invenzione del raggio laser è stata la ragione della nascita e dello sviluppo della produzione di dischi laser (ottici);

L'informazione è una merce e il venditore di informazioni non la perde dopo la vendita. Quindi, se uno studente comunica al suo amico informazioni sull'orario delle lezioni durante il semestre, non perderà questi dati per se stesso;

Le informazioni aggiungono valore ad altre risorse, in particolare alla manodopera. Infatti, un lavoratore con un titolo di studio superiore è valutato più di uno con un titolo di studio secondario.


Come segue dalla definizione, tre concetti sono sempre associati all'informazione:

La fonte dell'informazione è quell'elemento del mondo circostante (oggetto, processo, fenomeno, evento), l'informazione su cui è oggetto di trasformazione. Pertanto, la fonte di informazioni che il lettore di questo libro di testo riceve attualmente è l'informatica come sfera dell'attività umana;

Un consumatore di informazioni è quell'elemento del mondo circostante che utilizza le informazioni (per sviluppare comportamenti, prendere decisioni, gestire o apprendere). Il consumatore di queste informazioni è il lettore stesso;

Un segnale è un mezzo materiale che registra informazioni per trasferirle da una fonte a un consumatore. In questo caso il segnale è di natura elettronica. Se uno studente prende questo manuale dalla biblioteca, le stesse informazioni saranno su carta. Dopo essere state lette e ricordate dallo studente, le informazioni acquisiranno un altro mezzo: quello biologico, quando verranno “registrate” nella memoria dello studente.


Il segnale è l'elemento più importante in questo circuito. Le forme della sua presentazione, nonché le caratteristiche quantitative e qualitative delle informazioni in esso contenute, che sono importanti per il consumatore di informazioni, sono discusse ulteriormente in questa sezione del libro di testo. Le principali caratteristiche di un computer come strumento principale che mappa la fonte di informazione in un segnale (link 1 nella figura) e “porta” il segnale al consumatore di informazioni (link 2 nella figura) sono riportate nella sezione Computer . La struttura delle procedure che implementano i collegamenti 1 e 2 e compongono il processo informativo è oggetto di considerazione nella parte Processo Informativo.

Gli oggetti del mondo materiale sono in uno stato di cambiamento continuo, caratterizzato dallo scambio di energia tra l'oggetto e l'ambiente. Un cambiamento nello stato di un oggetto porta sempre a un cambiamento nello stato di qualche altro oggetto ambientale. Questo fenomeno, indipendentemente da come, quali stati e quali oggetti siano cambiati, può essere considerato come la trasmissione di un segnale da un oggetto a un altro. La modifica dello stato di un oggetto quando gli viene trasmesso un segnale è chiamata registrazione del segnale.


Un segnale o una sequenza di segnali forma un messaggio che può essere percepito dal destinatario in una forma o nell'altra, nonché nell'uno o nell'altro volume. Informazione in fisica è un termine che generalizza qualitativamente i concetti di “segnale” e “messaggio”. Se segnali e messaggi possono essere quantificati, allora possiamo dire che segnali e messaggi sono unità di misura del volume di informazioni. Il messaggio (segnale) viene interpretato in modo diverso da sistemi diversi. Ad esempio, un segnale acustico lungo e due brevi successivi nella terminologia del codice Morse è la lettera de (o D), nella terminologia BIOS di AWARD - un malfunzionamento della scheda video.

Il ruolo dell'informazione in matematica

In matematica, la teoria dell'informazione (teoria matematica della comunicazione) è una sezione della matematica applicata che definisce il concetto di informazione, le sue proprietà e stabilisce relazioni limitanti per i sistemi di trasmissione dei dati. I rami principali della teoria dell'informazione sono la codifica della sorgente (codifica di compressione) e la codifica del canale (resistente al rumore). La matematica è più di una disciplina scientifica. Crea un linguaggio unificato per tutta la scienza.


L'oggetto della ricerca matematica sono oggetti astratti: numero, funzione, vettore, insieme e altri. Inoltre, la maggior parte di essi viene introdotta assiomaticamente (assioma), ad es. senza alcun collegamento con altri concetti e senza alcuna definizione.

L’informazione non fa parte dello studio della matematica. Tuttavia, la parola "informazione" è usata in termini matematici: autoinformazione e informazione reciproca, legate alla parte astratta (matematica) della teoria dell'informazione. Tuttavia, nella teoria matematica il concetto di "informazione" è associato esclusivamente a oggetti astratti - variabili casuali, mentre nella moderna teoria dell'informazione questo concetto è considerato in modo molto più ampio - come una proprietà degli oggetti materiali. La connessione tra questi due termini identici è innegabile. Era l'apparato matematico dei numeri casuali utilizzato dall'autore della teoria dell'informazione, Claude Shannon. Lui stesso intende con il termine “informazione” qualcosa di fondamentale (irriducibile). La teoria di Shannon presuppone intuitivamente che l'informazione abbia un contenuto. Le informazioni riducono l’incertezza complessiva e l’entropia dell’informazione. La quantità di informazioni è misurabile. Tuttavia, mette in guardia i ricercatori dal trasferire meccanicamente concetti dalla sua teoria ad altri settori della scienza.


"La ricerca di modi per applicare la teoria dell'informazione in altri campi della scienza non si riduce a un banale trasferimento di termini da un campo della scienza a un altro. Questa ricerca viene effettuata in un lungo processo di presentazione di nuove ipotesi e della loro verifica sperimentale .” K. Shannon.

Il ruolo dell'informazione nella cibernetica

Il fondatore della cibernetica, Norbert Wiener, parlava di informazioni in questo modo:

L'informazione non è materia o energia, l'informazione è informazione." Ma la definizione fondamentale di informazione, che ha dato in molti dei suoi libri, è la seguente: l'informazione è una designazione del contenuto che riceviamo dal mondo esterno, nel processo di adattando noi e i nostri sentimenti.

L’informazione è il concetto base della cibernetica, così come l’informazione economica è il concetto base della cibernetica economica.


Esistono molte definizioni di questo termine, sono complesse e contraddittorie. La ragione, ovviamente, è che la cibernetica come fenomeno è studiata da diverse scienze, e la cibernetica è solo la più giovane di queste. L'informazione è oggetto di studio di scienze come la scienza del management, la statistica matematica, la genetica, la teoria dei mass media (stampa, radio, televisione), l'informatica, che si occupa dei problemi dell'informazione scientifica e tecnica, ecc. Infine, in Negli ultimi tempi i filosofi mostrano un grande interesse per i problemi dell'energia: tendono a considerare l'energia come una delle principali proprietà universali della materia, associata al concetto di riflessione. Tutte le interpretazioni del concetto di informazione presuppongono l'esistenza di due oggetti: la fonte dell'informazione e il consumatore (destinatario) dell'informazione. La trasmissione dell'informazione dall'uno all'altro avviene con l'aiuto di segnali che, in generale, potrebbe non avere alcun collegamento fisico con il suo significato: questa comunicazione è determinata di comune accordo. Ad esempio, suonare la campana della veche significava che ci si doveva radunare in piazza, ma a chi non conosceva quest'ordine non si comunicava alcuna informazione.


In una situazione con campana veche, chi partecipa all'accordo sul significato del segnale sa che al momento possono esserci due alternative: l'incontro veche avrà luogo oppure no. Oppure, nel linguaggio della teoria dell'informazione, un evento incerto (veche) ha due esiti. Il segnale ricevuto porta ad una diminuzione dell'incertezza: la persona ora sa che l'evento (sera) ha un solo risultato: avrà luogo. Tuttavia, se si sapesse in anticipo che l'incontro si sarebbe svolto a quell'ora, la campana non avrebbe annunciato nulla di nuovo. Ne consegue che quanto meno probabile (cioè più inaspettato) è il messaggio, tanto più informazioni contiene, e viceversa, tanto maggiore è la probabilità dell’esito prima che si verifichi l’evento, tanto meno informazioni contiene. Più o meno lo stesso ragionamento fu fatto negli anni '40. XX secolo all’emergere di una teoria statistica, o “classica”, dell’informazione, che definisce il concetto di informazione attraverso la misura di riduzione dell’incertezza della conoscenza circa il verificarsi di un evento (questa misura era chiamata entropia). Gli originari di questa scienza furono N. Wiener, K. Shannon e gli scienziati sovietici A. N. Kolmogorov, V. A. Kotelnikov e altri, che riuscirono a ricavare leggi matematiche per misurare la quantità di informazioni, e da qui concetti come capacità del canale e capacità di stoccaggio di dispositivi I., ecc., che servirono come potente incentivo per lo sviluppo della cibernetica come scienza e della tecnologia informatica elettronica come applicazione pratica delle conquiste della cibernetica.


Per quanto riguarda la determinazione del valore e dell'utilità delle informazioni per il destinatario, ci sono ancora molti aspetti irrisolti e poco chiari. Se partiamo dalle esigenze della gestione economica e, quindi, della cibernetica economica, allora l’informazione può essere definita come tutte quelle informazioni, conoscenze e messaggi che aiutano a risolvere un particolare problema gestionale (cioè a ridurre l’incertezza dei suoi risultati). Allora si aprono alcune opportunità per valutare le informazioni: più sono utili e preziose, prima o con minori costi portano alla risoluzione del problema. Il concetto di informazione è vicino al concetto di dato. C’è però una differenza tra loro: i dati sono segnali da cui è ancora necessario estrarre informazioni, l’elaborazione dei dati è il processo che li porta in una forma adatta a questo scopo.


Il processo della loro trasmissione dalla fonte al consumatore e la percezione come informazione può essere considerato come un passaggio attraverso tre filtri:

Fisico o statistico (limitazione puramente quantitativa della capacità del canale, indipendentemente dal contenuto dei dati, cioè dal punto di vista sintattico);

Semantica (selezione di quei dati che possono essere compresi dal destinatario, cioè corrispondono al thesaurus della sua conoscenza);

Pragmatico (selezione tra le informazioni comprese di quelle utili per risolvere un dato problema).

Ciò è chiaramente mostrato nel diagramma tratto dal libro di E. G. Yasin sull’informazione economica. Di conseguenza, si distinguono tre aspetti dello studio dei problemi linguistici: sintattico, semantico e pragmatico.


Secondo il contenuto, le informazioni sono suddivise in sociopolitiche, socioeconomiche (comprese le informazioni economiche), scientifiche e tecniche, ecc. In generale, esistono molte classificazioni delle informazioni, basate su basi diverse. Di norma, a causa della vicinanza dei concetti, le classificazioni dei dati sono costruite allo stesso modo. Ad esempio, le informazioni sono divise in statiche (costanti) e dinamiche (variabili) e i dati sono suddivisi in costanti e variabili. Un'altra divisione è quella delle informazioni primarie, derivate e di output (anche i dati sono classificati allo stesso modo). La terza divisione è I. controllare e informare. Quarto: ridondante, utile e falso. Quinto: completo (continuo) e selettivo. Questa idea di Wiener dà un'indicazione diretta dell'oggettività dell'informazione, vale a dire la sua esistenza in natura è indipendente dalla coscienza umana (percezione).

La cibernetica moderna definisce l'informazione oggettiva come la proprietà oggettiva degli oggetti e dei fenomeni materiali di generare una varietà di stati che, attraverso le interazioni fondamentali della materia, vengono trasmessi da un oggetto (processo) a un altro e sono impressi nella sua struttura. Un sistema materiale in cibernetica è considerato come un insieme di oggetti che a loro volta possono trovarsi in stati diversi, ma lo stato di ciascuno di essi è determinato dagli stati degli altri oggetti del sistema.

In natura, molti stati di un sistema rappresentano informazioni; gli stati stessi rappresentano il codice primario, o codice sorgente. Pertanto, ogni sistema materiale è una fonte di informazione. La cibernetica definisce l'informazione soggettiva (semantica) come il significato o il contenuto di un messaggio.

Il ruolo dell'informazione nell'informatica

L'oggetto della scienza sono i dati: metodi della loro creazione, archiviazione, elaborazione e trasmissione. Contenuto (anche: “riempimento” (nel contesto), “contenuto del sito”) è un termine che indica tutti i tipi di informazioni (sia testuali che multimediali - immagini, audio, video) che compongono il contenuto (visualizzato, per il visitatore, contenuto ) del sito web. Viene utilizzato per separare il concetto di informazione che costituisce la struttura interna di una pagina/sito (codice) da ciò che alla fine verrà visualizzato sullo schermo.

La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di “informazione” è basilare in un corso di informatica, ma è impossibile definirlo attraverso altri concetti più “semplici”.


Si possono distinguere i seguenti approcci per la determinazione delle informazioni:

Tradizionale (ordinario) - utilizzato in informatica: l'informazione è informazione, conoscenza, messaggi sullo stato delle cose che una persona percepisce dal mondo esterno utilizzando i sensi (vista, udito, gusto, olfatto, tatto).

Probabilistico - utilizzato nella teoria dell'informazione: l'informazione è informazione su oggetti e fenomeni dell'ambiente, i loro parametri, proprietà e stato, che riducono il grado di incertezza e la conoscenza incompleta su di essi.


Le informazioni vengono archiviate, trasmesse ed elaborate in forma simbolica (segno). Le stesse informazioni possono essere presentate in diverse forme:

Scrittura di segni, composta da vari segni, tra i quali si distinguono quelli simbolici sotto forma di testo, numeri, speciali. caratteri; grafico; tabellare, ecc.;

Sotto forma di gesti o segnali;

Forma verbale orale (conversazione).


Le informazioni vengono presentate utilizzando le lingue come sistemi di segni, che sono costruiti sulla base di un alfabeto specifico e dispongono di regole per eseguire operazioni sui segni. La lingua è un sistema di segni specifico per la presentazione delle informazioni. Esistere:

Le lingue naturali sono lingue parlate in forma parlata e scritta. In alcuni casi, la lingua parlata può essere sostituita dalla lingua delle espressioni facciali e dei gesti, dalla lingua dei segni speciali (ad esempio, i segnali stradali);

Le lingue formali sono lingue speciali per varie aree dell'attività umana, caratterizzate da un alfabeto rigorosamente fisso e regole grammaticali e sintattiche più rigide. Questo è il linguaggio della musica (note), il linguaggio della matematica (numeri, simboli matematici), sistemi numerici, linguaggi di programmazione, ecc. La base di ogni lingua è l'alfabeto, un insieme di simboli/segni. Il numero totale di simboli dell'alfabeto è solitamente chiamato potenza dell'alfabeto.


Il supporto informativo è un mezzo o un corpo fisico per trasmettere, archiviare e riprodurre informazioni. (Si tratta di segnali elettrici, luminosi, termici, sonori, radio, dischi magnetici e laser, pubblicazioni stampate, fotografie, ecc.)

I processi informativi sono processi associati alla ricezione, archiviazione, elaborazione e trasmissione delle informazioni (ovvero, azioni eseguite con le informazioni). Quelli. Si tratta di processi durante i quali cambia il contenuto delle informazioni o la forma della sua presentazione.

Per garantire il processo informativo sono necessari una fonte di informazione, un canale di comunicazione e un consumatore di informazioni. La fonte trasmette (invia) informazioni e il ricevitore le riceve (percepisce). Le informazioni trasmesse viaggiano dalla sorgente al ricevitore utilizzando un segnale (codice). La modifica del segnale consente di ottenere informazioni.

Essendo oggetto di trasformazione e utilizzo, l'informazione è caratterizzata dalle seguenti proprietà:

La sintassi è una proprietà che determina il modo in cui le informazioni vengono presentate su un mezzo (in un segnale). Pertanto, queste informazioni vengono presentate sui media elettronici utilizzando un carattere specifico. Qui puoi anche considerare parametri di presentazione delle informazioni come stile e colore del carattere, dimensione, interlinea, ecc. La scelta dei parametri necessari come proprietà sintattiche è ovviamente determinata dal metodo di trasformazione previsto. Ad esempio, per una persona con problemi di vista, la dimensione e il colore del carattere sono importanti. Se prevedi di inserire questo testo in un computer tramite uno scanner, il formato della carta è importante;


La semantica è una proprietà che determina il significato dell'informazione come corrispondenza del segnale al mondo reale. Pertanto, la semantica del segnale “informatica” risiede nella definizione data in precedenza. La semantica può essere considerata come un accordo, noto al consumatore di informazioni, sul significato di ciascun segnale (la cosiddetta regola di interpretazione). Ad esempio, è la semantica dei segnali che un automobilista alle prime armi studia, studiando le regole della strada, imparando la segnaletica stradale (in questo caso i segnali stessi sono i segnali). La semantica delle parole (segnali) viene appresa da uno studente di una lingua straniera. Possiamo dire che lo scopo dell'insegnamento dell'informatica è studiare la semantica di vari segnali: l'essenza dei concetti chiave di questa disciplina;


La pragmatica è una proprietà che determina l'influenza delle informazioni sul comportamento dei consumatori. Pertanto, la pragmatica delle informazioni ricevute dal lettore di questo libro di testo è, come minimo, il superamento con successo dell'esame di informatica. Mi piacerebbe credere che la pragmatica di questo lavoro non si limiterà a questo, ma servirà per l'ulteriore formazione e attività professionale del lettore.

Va notato che segnali che differiscono nella sintassi possono avere la stessa semantica. Ad esempio, i segnali “computer” e “computer” indicano un dispositivo elettronico per la conversione delle informazioni. In questo caso si parla solitamente di sinonimia di segnale. D'altra parte, un segnale (cioè un'informazione con una proprietà sintattica) può avere pragmatica diversa per i consumatori e semantica diversa. Pertanto, un segnale stradale denominato “mattone” e con una semantica molto specifica (“divieto di accesso”) significa per un automobilista un divieto di accesso, ma non ha alcun effetto per un pedone. Allo stesso tempo, il segnale “chiave” può avere semantica diversa: chiave di violino, chiave di primavera, chiave per aprire una serratura, chiave utilizzata in informatica per codificare un segnale al fine di proteggerlo da accessi non autorizzati (in in questo caso si parla di omonimia di segnale). Ci sono segnali: contrari che hanno una semantica opposta. Ad esempio, "freddo" e "caldo", "veloce" e "lento", ecc.


L'oggetto di studio dell'informatica sono i dati: metodi per la loro creazione, archiviazione, elaborazione e trasmissione. E l'informazione stessa registrata nei dati, il suo significato significativo, interessa agli utenti dei sistemi informativi che sono specialisti in varie scienze e campi di attività: un medico è interessato alle informazioni mediche, un geologo è interessato alle informazioni geologiche, un imprenditore è interessato a informazioni commerciali, ecc. (In particolare, un informatico è interessato a informazioni su come lavorare con i dati).

Semiotica: scienza dell'informazione

Le informazioni non possono essere immaginate senza la loro ricezione, elaborazione, trasmissione, ecc., cioè al di fuori dell'ambito dello scambio di informazioni. Tutti gli atti di scambio di informazioni vengono effettuati attraverso simboli o segni, con l'aiuto dei quali un sistema ne influenza un altro. Pertanto, la scienza principale che studia l'informazione è la semiotica: la scienza dei segni e dei sistemi di segni nella natura e nella società (teoria dei segni). In ogni atto di scambio di informazioni si possono trovare tre “partecipanti”, tre elementi: un segno, un oggetto che designa e un destinatario (utente) del segno.


A seconda delle relazioni tra gli elementi considerati, la semiotica è divisa in tre sezioni: sintattica, semantica e pragmatica. La sintattica studia i segni e le relazioni tra loro. Allo stesso tempo, astrae dal contenuto del segno e dal suo significato pratico per il destinatario. La semantica studia il rapporto tra i segni e gli oggetti che denotano, astraendo dal destinatario dei segni e dal valore di questi ultimi: per lui. È chiaro che lo studio dei modelli di rappresentazione semantica degli oggetti nei segni è impossibile senza tenere conto e utilizzare i modelli generali di costruzione di qualsiasi sistema di segni studiato dalla sintattica. La pragmatica studia la relazione tra i segni e i loro utenti. Nell'ambito della pragmatica, vengono studiati tutti i fattori che distinguono un atto di scambio di informazioni da un altro, tutte le questioni relative ai risultati pratici dell'utilizzo delle informazioni e al suo valore per il destinatario.


In questo caso, molti aspetti dei rapporti dei segni tra loro e con gli oggetti che denotano sono inevitabilmente influenzati. Pertanto, le tre sezioni della semiotica corrispondono a tre livelli di astrazione (distrazione) dalle caratteristiche di specifici atti di scambio di informazioni. Lo studio dell'informazione in tutta la sua diversità corrisponde al livello pragmatico. Distogliendo il destinatario dell'informazione, escludendolo dalla considerazione, passiamo a studiarla a livello semantico. Con l'astrazione dal contenuto dei segni, l'analisi dell'informazione viene trasferita al livello della sintattica. Questa compenetrazione delle principali sezioni della semiotica, associate a diversi livelli di astrazione, può essere rappresentata utilizzando il diagramma “Tre sezioni della semiotica e la loro interrelazione”. La misurazione delle informazioni viene effettuata di conseguenza in tre aspetti: sintattico, semantico e pragmatico. La necessità di dimensioni così diverse dell'informazione, come verrà mostrato di seguito, è dettata dalla pratica di progettazione e organizzazione del lavoro dei sistemi informativi. Consideriamo una tipica situazione produttiva.


Alla fine del turno, il pianificatore del cantiere prepara i dati del programma di produzione. Questi dati entrano nel centro informazioni e calcolo (ICC) dell'impresa, dove vengono elaborati e sotto forma di rapporti sullo stato attuale della produzione vengono rilasciati ai manager. Sulla base dei dati ricevuti, il responsabile dell'officina decide se modificare il piano di produzione per il periodo di pianificazione successivo o adottare altre misure organizzative. Ovviamente, per il responsabile del negozio, la quantità di informazioni contenute nel riepilogo dipende dall'entità dell'impatto economico ricevuto dal suo utilizzo nel processo decisionale, da quanto siano state utili le informazioni ricevute. Per il progettista del sito, la quantità di informazioni contenute nello stesso messaggio è determinata dall'accuratezza della sua corrispondenza con l'effettivo stato delle cose sul sito e dal grado di sorpresa dei fatti riportati. Più sono inattesi, prima è necessario segnalarli alla direzione, più informazioni ci sono in questo messaggio. Per i lavoratori dell'ICC, il numero di caratteri e la lunghezza del messaggio che trasporta le informazioni saranno di fondamentale importanza, poiché è questo che determina il tempo di caricamento delle apparecchiature informatiche e dei canali di comunicazione. Allo stesso tempo, non sono praticamente interessati né all'utilità delle informazioni né alla misura quantitativa del valore semantico delle informazioni.


Naturalmente, quando organizziamo un sistema di gestione della produzione e costruiamo modelli di selezione delle decisioni, utilizzeremo l'utilità delle informazioni come misura dell'informatività dei messaggi. Quando si costruisce un sistema di contabilità e reporting che fornisca la gestione dei dati sull'avanzamento del processo produttivo, la novità delle informazioni ricevute dovrebbe essere presa come misura della quantità di informazioni. L'organizzazione delle procedure per l'elaborazione meccanica delle informazioni richiede la misurazione del volume dei messaggi sotto forma di numero di caratteri elaborati. Questi tre approcci fondamentalmente diversi alla misurazione delle informazioni non sono contraddittori o si escludono a vicenda. Al contrario, misurando le informazioni su scale diverse, consentono una valutazione più completa ed esaustiva del contenuto informativo di ciascun messaggio e organizzano più efficacemente un sistema di gestione della produzione. Secondo la felice espressione del prof. NON. Kobrinsky, quando si tratta dell'organizzazione razionale dei flussi di informazioni, la quantità, la novità e l'utilità delle informazioni sono interconnesse tanto quanto la quantità, la qualità e il costo dei prodotti in produzione.

Informazioni nel mondo materiale

L'informazione è uno dei concetti generali associati alla materia. L'informazione esiste in qualsiasi oggetto materiale sotto forma di una varietà dei suoi stati e viene trasferita da oggetto a oggetto nel processo della loro interazione. L'esistenza dell'informazione come proprietà oggettiva della materia deriva logicamente dalle proprietà fondamentali conosciute della materia: struttura, cambiamento continuo (movimento) e interazione degli oggetti materiali.


La struttura della materia si manifesta come lo smembramento interno dell'integrità, l'ordine naturale di connessione degli elementi all'interno del tutto. In altre parole, qualsiasi oggetto materiale, dalla particella subatomica del Meta Universo (Big Bang) nel suo insieme, è un sistema di sottosistemi interconnessi. A causa del movimento continuo, inteso in senso lato come movimento nello spazio e sviluppo nel tempo, gli oggetti materiali cambiano i loro stati. Gli stati degli oggetti cambiano anche durante le interazioni con altri oggetti. L'insieme degli stati di un sistema materiale e di tutti i suoi sottosistemi rappresenta l'informazione sul sistema.


A rigor di termini, a causa dell’incertezza, dell’infinito e delle proprietà della struttura, la quantità di informazioni oggettive in qualsiasi oggetto materiale è infinita. Questa informazione è chiamata completa. Tuttavia è possibile distinguere livelli strutturali con insiemi finiti di stati. Le informazioni che esistono a livello strutturale con un numero finito di stati sono chiamate private. Per le informazioni private, ha senso il concetto di quantità di informazioni.

Dalla presentazione di cui sopra, è logico e semplice selezionare un'unità di misura per la quantità di informazioni. Immaginiamo un sistema che possa trovarsi solo in due stati ugualmente probabili. Assegniamo il codice “1” a uno di essi e “0” all'altro. Questa è la quantità minima di informazioni che il sistema può contenere. È un'unità di misura delle informazioni e si chiama bit. Esistono altri metodi e unità, più difficili da definire, per misurare la quantità di informazioni.


A seconda della forma materiale del mezzo, l'informazione è di due tipi principali: analogica e discreta. L'informazione analogica cambia continuamente nel tempo e prende valori da un continuum di valori. Le informazioni discrete cambiano in alcuni momenti nel tempo e prendono valori da un certo insieme di valori. Qualsiasi oggetto o processo materiale è la fonte primaria di informazioni. Tutti i suoi possibili stati costituiscono il codice sorgente dell'informazione. Il valore istantaneo degli stati è rappresentato come un simbolo (“lettera”) di questo codice. Affinché le informazioni possano essere trasmesse da un oggetto a un altro come ricevitore, è necessario che esista una sorta di mezzo materiale intermedio che interagisca con la fonte. Tali portatori in natura, di regola, si propagano rapidamente processi di struttura ondulatoria: radiazioni cosmiche, gamma e raggi X, onde elettromagnetiche e sonore, potenziali (e forse onde non ancora scoperte) del campo gravitazionale. Quando la radiazione elettromagnetica interagisce con un oggetto a causa dell'assorbimento o della riflessione, il suo spettro cambia, ad es. le intensità di alcune lunghezze d'onda cambiano. Le armoniche delle vibrazioni sonore cambiano anche durante le interazioni con gli oggetti. Le informazioni vengono trasmesse anche attraverso l'interazione meccanica, ma l'interazione meccanica, di regola, porta a grandi cambiamenti nella struttura degli oggetti (fino alla loro distruzione) e l'informazione è notevolmente distorta. La distorsione dell'informazione durante la sua trasmissione si chiama disinformazione.


Il trasferimento delle informazioni di origine alla struttura del mezzo è chiamato codifica. In questo caso, il codice sorgente viene convertito nel codice dell'operatore. Il mezzo con il codice sorgente trasferito sotto forma di codice portante è chiamato segnale. Il ricevitore del segnale ha il proprio insieme di possibili stati, chiamato codice del ricevitore. Un segnale, interagendo con un oggetto ricevente, cambia il suo stato. Il processo di conversione di un codice di segnale in un codice di ricevitore è chiamato decodifica.Il trasferimento di informazioni da una sorgente a un ricevitore può essere considerato un'interazione di informazioni. L'interazione delle informazioni è fondamentalmente diversa dalle altre interazioni. In tutte le altre interazioni di oggetti materiali, avviene uno scambio di materia e (o) energia. In questo caso, uno degli oggetti perde materia o energia e l'altro la guadagna. Questa proprietà delle interazioni è chiamata simmetria. Durante l'interazione delle informazioni, il ricevente riceve le informazioni, ma la fonte non le perde. L'interazione delle informazioni è asimmetrica: l'informazione oggettiva in sé non è materiale, è una proprietà della materia, come la struttura, il movimento, ed esiste sui media materiali sotto forma di codici propri.

Informazioni sulla fauna selvatica

La fauna selvatica è complessa e diversificata. Le fonti e i destinatari delle informazioni in esso contenute sono gli organismi viventi e le loro cellule. Un organismo ha una serie di proprietà che lo distinguono dagli oggetti materiali inanimati.


Di base:

Scambio continuo di materia, energia e informazioni con l'ambiente;

Irritabilità, capacità del corpo di percepire ed elaborare informazioni sui cambiamenti nell'ambiente e nell'ambiente interno del corpo;

Eccitabilità, capacità di rispondere agli stimoli;

Auto-organizzazione, manifestata come cambiamenti nel corpo per adattarsi alle condizioni ambientali.


Un organismo, considerato come un sistema, ha una struttura gerarchica. Questa struttura relativa all'organismo stesso è divisa in livelli interni: livello molecolare, cellulare, organo e, infine, l'organismo stesso. Tuttavia l'organismo interagisce anche al di sopra dei sistemi viventi organici, i cui livelli sono la popolazione, l'ecosistema e tutta la natura vivente nel suo insieme (biosfera). Tra tutti questi livelli circolano flussi non solo di materia ed energia, ma anche di informazioni, e le interazioni informative nella natura vivente avvengono allo stesso modo che nella natura inanimata. Allo stesso tempo, la natura vivente nel processo di evoluzione ha creato un'ampia varietà di fonti, portatori e destinatari di informazioni.


La reazione alle influenze del mondo esterno si manifesta in tutti gli organismi, poiché è causata dall'irritabilità. Negli organismi superiori, l'adattamento all'ambiente esterno è un'attività complessa, che è efficace solo con informazioni sufficientemente complete e tempestive sull'ambiente. I ricevitori delle informazioni provenienti dall'ambiente esterno sono i loro organi di senso, che comprendono la vista, l'udito, l'olfatto, il gusto, il tatto e l'apparato vestibolare. Nella struttura interna degli organismi ci sono numerosi recettori interni associati al sistema nervoso. Il sistema nervoso è costituito da neuroni, i cui processi (assoni e dendriti) sono analoghi ai canali di trasmissione delle informazioni. Gli organi principali che immagazzinano ed elaborano le informazioni nei vertebrati sono il midollo spinale e il cervello. A seconda delle caratteristiche dei sensi, le informazioni percepite dal corpo possono essere classificate in visive, uditive, gustative, olfattive e tattili.


Quando il segnale raggiunge la retina dell'occhio umano, eccita in modo particolare le cellule che lo costituiscono. Gli impulsi nervosi dalle cellule vengono trasmessi attraverso gli assoni al cervello. Il cervello ricorda questa sensazione sotto forma di una certa combinazione di stati dei suoi neuroni costituenti. (L'esempio continua nella sezione “L'informazione nella società umana”). Accumulando informazioni, il cervello crea sulla sua struttura un modello informativo connesso del mondo circostante. Nella natura vivente, una caratteristica importante per un organismo che riceve informazioni è la sua disponibilità. La quantità di informazioni che il sistema nervoso umano è in grado di inviare al cervello durante la lettura di testi è di circa 1 bit ogni 1/16 di s.

Lo studio degli organismi è complicato dalla loro complessità. L'astrazione della struttura come insieme matematico, accettabile per gli oggetti inanimati, è difficilmente accettabile per un organismo vivente, perché per creare un modello astratto più o meno adeguato di un organismo è necessario tenere conto di tutti gli elementi gerarchici livelli della sua struttura. Pertanto, è difficile introdurre una misura della quantità di informazioni. È molto difficile determinare le connessioni tra i componenti della struttura. Se si sa quale organo è la fonte dell'informazione, qual è il segnale e qual è il ricevitore?


Prima dell’avvento dei computer, la biologia, che si occupa dello studio degli organismi viventi, utilizzava solo metodi qualitativi, cioè modelli descrittivi. In un modello qualitativo è quasi impossibile tenere conto delle connessioni informative tra i componenti della struttura. La tecnologia informatica elettronica ha permesso di applicare nuovi metodi nella ricerca biologica, in particolare il metodo di modellazione della macchina, che prevede una descrizione matematica di fenomeni e processi noti che si verificano nel corpo, aggiungendo ad essi ipotesi su alcuni processi sconosciuti e calcolando il possibile comportamento modelli dell'organismo. Le opzioni risultanti vengono confrontate con il comportamento reale dell'organismo, che consente di determinare la verità o la falsità delle ipotesi avanzate. Tali modelli possono anche tenere conto dell’interazione delle informazioni. I processi informativi che assicurano l’esistenza della vita stessa sono estremamente complessi. E sebbene sia intuitivamente chiaro che questa proprietà è direttamente correlata alla formazione, conservazione e trasmissione di informazioni complete sulla struttura dell'organismo, per qualche tempo una descrizione astratta di questo fenomeno è sembrata impossibile. Tuttavia, i processi informativi che garantiscono l'esistenza di questa proprietà sono stati parzialmente rivelati attraverso la decifrazione del codice genetico e la lettura dei genomi di vari organismi.

L'informazione nella società umana

Lo sviluppo della materia nel processo di movimento è diretto a complicare la struttura degli oggetti materiali. Una delle strutture più complesse è il cervello umano. Finora, questa è l'unica struttura a noi nota che possiede una proprietà che l'uomo stesso chiama coscienza. Parlando di informazioni, noi, come esseri pensanti, intendiamo a priori che l'informazione, oltre alla sua presenza sotto forma di segnali che riceviamo, ha anche un significato. Formando nella sua mente un modello del mondo circostante come un insieme interconnesso di modelli dei suoi oggetti e processi, una persona utilizza concetti semantici piuttosto che informazioni. Il significato è l'essenza di ogni fenomeno, che non coincide con se stesso e lo collega al contesto più ampio della realtà. La parola stessa indica direttamente che il contenuto semantico dell'informazione può essere formato solo pensando ai destinatari dell'informazione. Nella società umana, l'importanza decisiva non è l'informazione in sé, ma il suo contenuto semantico.


Esempio (continua). Avendo sperimentato una tale sensazione, una persona assegna all'oggetto il concetto di "pomodoro" e il suo stato al concetto di "colore rosso". Inoltre, la sua coscienza fissa la connessione: “pomodoro” - “rosso”. Questo è il significato del segnale ricevuto. (L'esempio continua di seguito in questa sezione). La capacità del cervello di creare concetti significativi e connessioni tra loro è la base della coscienza. La coscienza può essere considerata come un modello semantico autosviluppante del mondo circostante. Il significato non è informazione. Le informazioni esistono solo su un supporto tangibile. La coscienza umana è considerata immateriale. Il significato esiste nella mente umana sotto forma di parole, immagini e sensazioni. Una persona può pronunciare le parole non solo ad alta voce, ma anche "a se stessa". Può anche creare (o ricordare) immagini e sensazioni “nella sua mente”. Tuttavia, può recuperare informazioni corrispondenti a questo significato parlando o scrivendo parole.

Esempio (continua). Se le parole "pomodoro" e "rosso" sono il significato dei concetti, allora dov'è l'informazione? Le informazioni sono contenute nel cervello sotto forma di determinati stati dei suoi neuroni. È anche contenuto nel testo stampato composto da queste parole e quando si codificano le lettere con un codice binario a tre bit, la sua quantità è di 120 bit. Se dici le parole ad alta voce, ci saranno molte più informazioni, ma il significato rimarrà lo stesso. L’immagine visiva trasporta la maggior quantità di informazioni. Ciò si riflette anche nel folklore: "è meglio vedere una volta che ascoltare cento volte". L'informazione così ripristinata è chiamata informazione semantica, poiché codifica il significato di alcune informazioni primarie (semantica). Avendo ascoltato (o visto) una frase pronunciata (o scritta) in una lingua che una persona non conosce, riceve informazioni, ma non può determinarne il significato. Pertanto, per trasmettere il contenuto semantico delle informazioni, sono necessari alcuni accordi tra la sorgente e il destinatario sul contenuto semantico dei segnali, ad es. parole Tali accordi possono essere raggiunti attraverso la comunicazione. La comunicazione è una delle condizioni più importanti per l’esistenza della società umana.

Nel mondo moderno, l'informazione è una delle risorse più importanti e, allo stesso tempo, una delle forze trainanti nello sviluppo della società umana. I processi di informazione che avvengono nel mondo materiale, nella natura vivente e nella società umana sono studiati (o almeno presi in considerazione) da tutte le discipline scientifiche, dalla filosofia al marketing. La crescente complessità dei problemi della ricerca scientifica ha portato alla necessità di attrarre grandi team di scienziati di diverse specialità per risolverli. Pertanto, quasi tutte le teorie discusse di seguito sono interdisciplinari. Storicamente, lo studio dell'informazione stessa è stato effettuato da due rami complessi della scienza: la cibernetica e l'informatica.


La cibernetica moderna è una branca multidisciplinare della scienza che studia sistemi altamente complessi, come:

Società umana (cibernetica sociale);

Economia (cibernetica economica);

Organismo vivente (cibernetica biologica);

Il cervello umano e la sua funzione è la coscienza (intelligenza artificiale).


L'informatica, nata come scienza a metà del secolo scorso, si è separata dalla cibernetica ed è impegnata nella ricerca nel campo dei metodi per ottenere, archiviare, trasmettere ed elaborare informazioni semantiche. Entrambe queste industrie utilizzano diverse teorie scientifiche sottostanti. Questi includono la teoria dell'informazione e le sue sezioni: teoria dei codici, teoria degli algoritmi e teoria degli automi. La ricerca sul contenuto semantico dell'informazione si basa su un insieme di teorie scientifiche sotto il nome generale di semiotica.La teoria dell'informazione è una teoria complessa, principalmente matematica, che include la descrizione e la valutazione dei metodi per recuperare, trasmettere, archiviare e classificare le informazioni. Considera i media dell'informazione come elementi di un insieme astratto (matematico) e le interazioni tra i media come un modo per organizzare gli elementi in questo insieme. Questo approccio consente di descrivere formalmente il codice informativo, ovvero di definire un codice astratto e studiarlo utilizzando metodi matematici. Per questi studi utilizza metodi di teoria della probabilità, statistica matematica, algebra lineare, teoria dei giochi e altre teorie matematiche.


Le basi di questa teoria furono gettate dallo scienziato americano E. Hartley nel 1928, che determinò la misura della quantità di informazioni per determinati problemi di comunicazione. Successivamente, la teoria fu sviluppata in modo significativo dallo scienziato americano K. Shannon, dagli scienziati russi A.N. Kolmogorov, V.M. Glushkov e altri. La moderna teoria dell'informazione comprende sezioni come la teoria dei codici, la teoria degli algoritmi, la teoria degli automi digitali (vedi sotto) e alcune altre. Esistono anche teorie alternative dell'informazione, ad esempio la "teoria dell'informazione qualitativa", proposta dal polacco scienziato M. Mazur.. Ogni persona ha familiarità con il concetto di algoritmo, senza nemmeno saperlo. Ecco un esempio di algoritmo informale: “Taglia i pomodori a cerchi o a fette. Metteteci dentro la cipolla tritata, versate l'olio vegetale, quindi cospargete con il peperoncino tritato finemente e mescolate. Prima di mangiare, cospargere di sale, mettere in un'insalatiera e guarnire con il prezzemolo. (Insalata di pomodoro).


Le prime regole per risolvere i problemi aritmetici nella storia dell'umanità furono sviluppate da uno dei famosi scienziati dell'antichità, Al-Khorezmi, nel IX secolo d.C. In suo onore, le regole formalizzate per raggiungere qualsiasi obiettivo sono chiamate algoritmi. L'oggetto della teoria degli algoritmi è trovare metodi per costruire e valutare algoritmi computazionali e di controllo efficaci (inclusi universali) per l'elaborazione delle informazioni. Per comprovare tali metodi, la teoria degli algoritmi utilizza l'apparato matematico della teoria dell'informazione.Il moderno concetto scientifico di algoritmi come metodi di elaborazione delle informazioni è stato introdotto nei lavori di E. Post e A. Turing negli anni '20 del XX secolo (Turing Macchina). Gli scienziati russi A. Markov (Markov's Normal Algorithm) e A. Kolmogorov hanno dato un grande contributo allo sviluppo della teoria degli algoritmi.La teoria degli automi è una branca della cibernetica teorica che studia modelli matematici di dispositivi realmente esistenti o fondamentalmente possibili che elaborano informazioni discrete in momenti discreti nel tempo.


Il concetto di automa è nato nella teoria degli algoritmi. Se esistono algoritmi universali per risolvere problemi computazionali, allora devono esistere anche dispositivi (anche se astratti) per implementare tali algoritmi. In realtà, una macchina di Turing astratta, considerata nella teoria degli algoritmi, è allo stesso tempo un automa definito in modo informale. La giustificazione teorica per la costruzione di tali dispositivi è oggetto della teoria degli automi, che utilizza l'apparato delle teorie matematiche: algebra, logica matematica, analisi combinatoria, teoria dei grafi, teoria della probabilità, ecc. , è la principale base teorica per la creazione di computer elettronici e sistemi di controllo automatizzati.La semiotica è un complesso di teorie scientifiche che studiano le proprietà dei sistemi di segni. I risultati più significativi sono stati raggiunti nella sezione semiotica - semantica. L'oggetto della ricerca semantica è il contenuto semantico delle informazioni.


Un sistema di segni è considerato un sistema di oggetti concreti o astratti (segni, parole), a ciascuno dei quali è associato in un certo modo un determinato significato. In teoria, è stato dimostrato che possono esserci due confronti di questo tipo. Il primo tipo di corrispondenza determina direttamente l'oggetto materiale che questa parola denota ed è chiamato denotazione (o, in alcune opere, designato). Il secondo tipo di corrispondenza determina il significato di un segno (parola) e si chiama concetto. Allo stesso tempo, vengono studiate proprietà di confronti come "significato", "verità", "definibilità", "seguente", "interpretazione", ecc .. Per la ricerca viene utilizzato l'apparato della logica matematica e della linguistica matematica. della semantica, delineata da G. V. Leibniz e F de Saussure nel XIX secolo, formulata e sviluppata da C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), ecc. Il risultato principale della teoria è la creazione di un apparato di analisi semantica che consente di rappresentare il significato di un testo in un linguaggio naturale sotto forma di una registrazione in un linguaggio semantico (semantico) formalizzato.L'analisi semantica è la base per la creazione di dispositivi (programmi) per la traduzione automatica da una lingua naturale all'altra.

Le informazioni vengono archiviate trasferendole su alcuni supporti fisici. Le informazioni semantiche registrate su un supporto di memorizzazione tangibile sono chiamate documento. L'umanità ha imparato a memorizzare le informazioni molto tempo fa. Le forme più antiche di memorizzazione delle informazioni utilizzavano la disposizione degli oggetti: conchiglie e pietre sulla sabbia, nodi su una corda. Uno sviluppo significativo di questi metodi fu la scrittura, una rappresentazione grafica di simboli su pietra, argilla, papiro e carta. Di grande importanza nello sviluppo di questa direzione è stata l'invenzione della stampa. Nel corso della sua storia, l'umanità ha accumulato un'enorme quantità di informazioni in biblioteche, archivi, periodici e altri documenti scritti.


Attualmente ha acquisito particolare importanza la memorizzazione di informazioni sotto forma di sequenze di caratteri binari. Per implementare questi metodi, vengono utilizzati una varietà di dispositivi di archiviazione. Sono il collegamento centrale dei sistemi di archiviazione delle informazioni. Oltre a questi, tali sistemi utilizzano mezzi per la ricerca di informazioni (motore di ricerca), mezzi per ottenere informazioni (sistemi di informazione e di riferimento) e mezzi per visualizzare informazioni (dispositivo di output). Formati in base allo scopo delle informazioni, tali sistemi informativi costituiscono banche dati, banche dati e basi di conoscenza.

Il trasferimento dell'informazione semantica è il processo del suo trasferimento spaziale dalla sorgente al destinatario (destinatario). L'uomo ha imparato a trasmettere e ricevere informazioni ancor prima che a memorizzarle. La parola è un metodo di trasmissione che i nostri lontani antenati usavano nel contatto diretto (conversazione) - lo usiamo ancora adesso. Per trasmettere informazioni su lunghe distanze è necessario utilizzare processi informativi molto più complessi: per eseguire tale processo, le informazioni devono essere formattate (presentate) in qualche modo. Per presentare le informazioni vengono utilizzati vari sistemi di segni: insiemi di simboli semantici predeterminati: oggetti, immagini, parole scritte o stampate del linguaggio naturale. Le informazioni semantiche su qualsiasi oggetto, fenomeno o processo presentato con il loro aiuto sono chiamate messaggio.


Ovviamente, per trasmettere un messaggio a distanza, le informazioni devono essere trasferite su qualche tipo di supporto mobile. I trasportatori possono spostarsi nello spazio utilizzando veicoli, come accade con le lettere inviate per posta. Questo metodo garantisce la completa affidabilità della trasmissione delle informazioni, poiché il destinatario riceve il messaggio originale, ma richiede molto tempo per la trasmissione. Dalla metà del 19 ° secolo, i metodi di trasmissione delle informazioni si sono diffusi utilizzando un vettore di informazioni che si propaga naturalmente: vibrazioni elettromagnetiche (vibrazioni elettriche, onde radio, luce). L’implementazione di questi metodi richiede:

Trasferimento preliminare delle informazioni contenute in un messaggio a un mezzo - codifica;

Garantire la trasmissione del segnale così ricevuto al destinatario tramite uno speciale canale di comunicazione;

Conversione inversa del codice del segnale in un codice del messaggio: decodifica.

L'uso dei mezzi elettromagnetici rende la consegna di un messaggio al destinatario quasi istantanea, ma richiede misure aggiuntive per garantire la qualità (affidabilità e accuratezza) delle informazioni trasmesse, poiché i canali di comunicazione reali sono soggetti a interferenze naturali e artificiali. I dispositivi che implementano il processo di trasferimento dei dati formano sistemi di comunicazione. A seconda del metodo di presentazione delle informazioni, i sistemi di comunicazione possono essere suddivisi in segni (telegrafo, telefax), suono (telefono), video e sistemi combinati (televisione). Il sistema di comunicazione più sviluppato ai nostri tempi è Internet.

Elaborazione dati

Poiché l’informazione non è materiale, la sua elaborazione comporta varie trasformazioni. I processi di elaborazione comprendono qualsiasi trasferimento di informazioni da un supporto a un altro supporto. Le informazioni destinate al trattamento sono chiamate dati. Il tipo principale di elaborazione delle informazioni primarie ricevute da vari dispositivi è la trasformazione in una forma che ne garantisca la percezione da parte dei sensi umani. Pertanto, le fotografie dello spazio ottenute nei raggi X vengono convertite in normali fotografie a colori utilizzando speciali convertitori di spettro e materiali fotografici. I dispositivi per la visione notturna convertono l'immagine ottenuta dai raggi infrarossi (termici) in un'immagine nel campo del visibile. Per alcune attività di comunicazione e controllo è necessaria la conversione delle informazioni analogiche. A questo scopo vengono utilizzati convertitori di segnale analogico-digitale e digitale-analogico.


Il tipo più importante di elaborazione delle informazioni semantiche è determinare il significato (contenuto) contenuto in un determinato messaggio. A differenza dell'informazione semantica primaria, non ha caratteristiche statistiche, cioè una misura quantitativa: o c'è significato o no. E a quanto ammonta, se esiste, è impossibile stabilirlo. Il significato contenuto nel messaggio è descritto in un linguaggio artificiale che riflette le connessioni semantiche tra le parole del testo di partenza. Un dizionario di tale lingua, chiamato thesaurus, si trova nel destinatario del messaggio. Il significato delle parole e delle frasi in un messaggio viene determinato assegnandole a determinati gruppi di parole o frasi, il cui significato è già stato stabilito. Il thesaurus, quindi, consente di stabilire il significato del messaggio e, allo stesso tempo, si riempie di nuovi concetti semantici. Il tipo descritto di elaborazione delle informazioni viene utilizzato nei sistemi di recupero delle informazioni e nei sistemi di traduzione automatica.


Uno dei tipi più diffusi di elaborazione delle informazioni è la soluzione di problemi computazionali e di controllo automatico tramite computer. L’elaborazione delle informazioni viene sempre effettuata per qualche scopo. Per raggiungerlo, è necessario conoscere l'ordine delle azioni sulle informazioni che portano a un determinato obiettivo. Questa procedura è chiamata algoritmo. Oltre all'algoritmo stesso, è necessario anche un dispositivo che implementi questo algoritmo. Nelle teorie scientifiche, un tale dispositivo è chiamato automa.Va notato che la caratteristica più importante dell'informazione è il fatto che, a causa dell'asimmetria dell'interazione delle informazioni, durante l'elaborazione delle informazioni compaiono nuove informazioni, ma le informazioni originali non vanno perse.

Informazioni analogiche e digitali

Il suono è costituito dalle vibrazioni delle onde in qualsiasi mezzo, ad esempio nell'aria. Quando una persona parla, le vibrazioni dei legamenti della gola vengono convertite in vibrazioni ondulatorie dell'aria. Se consideriamo il suono non come un'onda, ma come vibrazioni in un punto, queste vibrazioni possono essere rappresentate come variazioni della pressione dell'aria nel tempo. Utilizzando un microfono, le variazioni di pressione possono essere rilevate e convertite in tensione elettrica. La pressione dell'aria viene convertita in fluttuazioni di tensione elettrica.


Tale trasformazione può avvenire secondo varie leggi, molto spesso la trasformazione avviene secondo una legge lineare. Ad esempio, in questo modo:

U(t)=K(P(t)-P_0),

dove U(t) è la tensione elettrica, P(t) è la pressione atmosferica, P_0 è la pressione atmosferica media e K è il fattore di conversione.

Sia la tensione elettrica che la pressione dell'aria sono funzioni continue nel tempo. Le funzioni U(t) e P(t) forniscono informazioni sulle vibrazioni dei legamenti della gola. Queste funzioni sono continue e tali informazioni sono chiamate analogiche.La musica è un caso speciale di suono e può anche essere rappresentata come una sorta di funzione del tempo. Sarà una rappresentazione analogica della musica. Ma la musica viene scritta anche sotto forma di note. Ogni nota ha una durata che è un multiplo di una durata predeterminata e un'altezza (do, re, mi, fa, salt, ecc.). Se questi dati vengono convertiti in numeri, otteniamo una rappresentazione digitale della musica.


Anche il linguaggio umano è un caso speciale di suono. Può anche essere rappresentato in forma analogica. Ma proprio come la musica può essere scomposta in note, il discorso può essere scomposto in lettere. Se a ciascuna lettera viene assegnato il proprio insieme di numeri, otterremo una rappresentazione digitale del parlato. La differenza tra l'informazione analogica e quella digitale è che l'informazione analogica è continua, mentre l'informazione digitale è discreta. La trasformazione dell'informazione da un tipo all'altro , a seconda del tipo di trasformazione, viene chiamata diversamente: semplicemente "conversione", come conversione da digitale ad analogico, o conversione da analogico a digitale; le trasformazioni complesse sono chiamate "codifica", ad esempio codifica delta, codifica entropica; La conversione tra caratteristiche come ampiezza, frequenza o fase è chiamata "modulazione", ad esempio modulazione di ampiezza-frequenza, modulazione di larghezza di impulso.

In genere, le conversioni analogiche sono abbastanza semplici e possono essere facilmente gestite da vari dispositivi inventati dall'uomo. Un registratore converte la magnetizzazione sulla pellicola in suono, un registratore vocale converte il suono in magnetizzazione sulla pellicola, una videocamera converte la luce in magnetizzazione sulla pellicola, un oscilloscopio converte la tensione elettrica o la corrente in un'immagine, ecc. Convertire le informazioni analogiche in digitali è molto più difficile. La macchina non riesce ad effettuare alcune trasformazioni o ci riesce con grande difficoltà. Ad esempio, la conversione del parlato in testo o la conversione della registrazione di un concerto in spartiti e persino una rappresentazione intrinsecamente digitale: è molto difficile per una macchina convertire il testo su carta nello stesso testo nella memoria del computer.

Perché allora utilizzare la rappresentazione digitale delle informazioni se sono così complesse? Il vantaggio principale delle informazioni digitali rispetto a quelle analogiche è l’immunità al rumore. Cioè, nel processo di copia delle informazioni, le informazioni digitali vengono copiate così come sono, possono essere copiate quasi un numero infinito di volte, mentre le informazioni analogiche diventano rumorose durante il processo di copia e la loro qualità si deteriora. In genere, le informazioni analogiche possono essere copiate non più di tre volte. Se si dispone di un registratore audio a due cassette, è possibile eseguire il seguente esperimento: provare a riscrivere la stessa canzone più volte da cassetta a cassetta; dopo solo alcune ri-registrazioni noterai quanto la qualità della registrazione è peggiorata. Le informazioni sulla cassetta sono memorizzate in forma analogica. Puoi riscrivere la musica in formato mp3 tutte le volte che vuoi e la qualità della musica non si deteriorerà. Le informazioni in un file mp3 vengono archiviate digitalmente.

Quantità di informazioni

Una persona o qualche altro destinatario di informazioni, dopo aver ricevuto un'informazione, risolve alcune incertezze. Prendiamo come esempio lo stesso albero. Quando abbiamo visto l’albero, abbiamo risolto una serie di incertezze. Abbiamo imparato l'altezza dell'albero, il tipo di albero, la densità del fogliame, il colore delle foglie e, se era un albero da frutto, poi abbiamo visto i frutti su di esso, quanto erano maturi, ecc. Prima di guardare l'albero non sapevamo tutto questo, dopo aver guardato l'albero abbiamo risolto l'incertezza: abbiamo ricevuto informazioni.


Se andiamo in un prato e lo osserviamo, otterremo un diverso tipo di informazione, quanto è grande il prato, quanto è alta l'erba e di che colore è l'erba. Se un biologo si reca in questo stesso prato, allora, tra le altre cose, potrà scoprire: quali varietà di erba crescono nel prato, che tipo di prato è, vedrà quali fiori sono sbocciati, quali sono in procinto di fiorire, se il prato è adatto al pascolo delle mucche, ecc. Cioè riceverà più informazioni di noi, poiché aveva più domande prima di guardare il prato, il biologo risolverà più incertezze.

Più l'incertezza veniva risolta nel processo di ottenimento delle informazioni, più informazioni ricevevamo. Ma questa è una misura soggettiva della quantità di informazioni e vorremmo avere una misura oggettiva. Esiste una formula per calcolare la quantità di informazioni. Abbiamo una certa incertezza, e abbiamo N numero di casi di risoluzione dell'incertezza, e ogni caso ha una certa probabilità di risoluzione, quindi la quantità di informazioni ricevute può essere calcolata utilizzando la seguente formula che Shannon ci ha suggerito:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), dove

I – quantità di informazioni;

N – numero di risultati;

p_1, p_2, ..., p_N sono le probabilità del risultato.

La quantità di informazioni viene misurata in bit, un'abbreviazione della parola inglese BInary digiT, che significa cifra binaria.

Per eventi ugualmente probabili la formula può essere semplificata:

I = \log_(2)N, dove

I – quantità di informazioni;

N – numero di risultati.

Prendiamo, ad esempio, una moneta e gettiamola sul tavolo. Atterrerà testa o croce. Abbiamo 2 eventi ugualmente probabili. Dopo aver lanciato la moneta, abbiamo ricevuto \log_(2)2=1 bit di informazione.

Proviamo a scoprire quante informazioni otteniamo dopo aver lanciato i dadi. Il cubo ha sei facce: sei eventi ugualmente probabili. Otteniamo: \log_(2)6 \circa 2.6. Dopo aver lanciato il dado sul tavolo, abbiamo ricevuto circa 2,6 bit di informazione.


Le probabilità di vedere un dinosauro marziano quando usciamo di casa sono una su dieci miliardi. Quante informazioni otterremo sul dinosauro marziano una volta usciti di casa?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \circa 3,4 \cdot 10^(-9) bit.

Diciamo che abbiamo lanciato 8 monete. Abbiamo 2 ^ 8 opzioni di rilascio delle monete. Ciò significa che dopo aver lanciato le monete otterremo \log_2(2^8)=8 bit di informazione.

Quando facciamo una domanda e abbiamo la stessa probabilità di ricevere una risposta “sì” o “no”, dopo aver risposto alla domanda riceviamo un po’ di informazione.


È sorprendente che se applichiamo la formula di Shannon all'informazione analogica, otteniamo una quantità infinita di informazioni. Ad esempio, la tensione in un punto di un circuito elettrico può assumere un valore altrettanto probabile compreso tra zero e un volt. Il numero di risultati che abbiamo è uguale all'infinito e, sostituendo questo valore nella formula per eventi ugualmente probabili, otteniamo l'infinito, una quantità infinita di informazioni.

Ora ti mostrerò come codificare "Guerra e Pace" utilizzando un solo segno su qualsiasi asta di metallo. Codifichiamo tutte le lettere e i segni presenti in "Guerra e pace" utilizzando numeri a due cifre: dovrebbero essere sufficienti per noi. Ad esempio, daremo alla lettera “A” il codice “00”, alla lettera “B” il codice “01” e così via, codificheremo segni di punteggiatura, lettere latine e numeri. Ricodifichiamo "Guerra e pace" utilizzando questo codice e otteniamo un numero lungo, ad esempio 70123856383901874..., aggiungiamo una virgola e uno zero davanti a questo numero (0.70123856383901874...). Il risultato è un numero da zero a uno. Mettiamo un segno sull'asta di metallo in modo che il rapporto tra il lato sinistro dell'asta e la lunghezza di questa asta sia uguale esattamente al nostro numero. Pertanto, se all'improvviso vogliamo leggere "Guerra e pace", misuriamo semplicemente il lato sinistro dell'asta fino al segno e la lunghezza dell'intera asta, dividiamo un numero per un altro, otteniamo un numero e lo ricodifichiamo in lettere ( da “00” a “A”, da “01” a “B”, ecc.).

In realtà non potremo farlo, poiché non potremo determinare le lunghezze con precisione infinita. Alcuni problemi di ingegneria ci impediscono di aumentare la precisione delle misurazioni e la fisica quantistica ci mostra che dopo un certo limite le leggi quantistiche interferiranno già con noi. Intuitivamente comprendiamo che minore è la precisione della misurazione, meno informazioni riceviamo, mentre maggiore è la precisione della misurazione, più informazioni riceviamo. La formula di Shannon non è adatta per misurare la quantità di informazioni analogiche, ma esistono altri metodi per questo, discussi in Teoria dell'informazione. Nella tecnologia informatica, un bit corrisponde allo stato fisico del supporto informazioni: magnetizzato - non magnetizzato, c'è un buco - non c'è buco, carico - non carico, riflette la luce - non riflette la luce, alto potenziale elettrico - basso potenziale elettrico potenziale. In questo caso, uno stato è solitamente indicato con il numero 0 e l'altro con il numero 1. Qualsiasi informazione può essere codificata con una sequenza di bit: testo, immagine, suono, ecc.


Insieme al bit viene spesso utilizzato un valore chiamato byte, che solitamente corrisponde a 8 bit. E se un bit ti consente di scegliere un'opzione ugualmente probabile tra due possibili, allora un byte è 1 su 256 (2 ^ 8). Per misurare la quantità di informazioni, è anche comune utilizzare unità più grandi:

1 KB (un kilobyte) 210 byte = 1024 byte

1 MB (un megabyte) 210 KB = 1024 KB

1 GB (un gigabyte) 210 MB = 1024 MB

In realtà, i prefissi SI kilo-, mega-, giga- dovrebbero essere usati rispettivamente per i fattori 10^3, 10^6 e 10^9, ma storicamente c'è stata la pratica di utilizzare fattori con potenze di due.


Un bit di Shannon e un bit utilizzato nella tecnologia informatica sono gli stessi se le probabilità che uno zero o un uno appaiano in un bit del computer sono uguali. Se le probabilità non sono uguali, la quantità di informazioni secondo Shannon diminuisce, lo abbiamo visto nell'esempio del dinosauro marziano. La quantità di informazioni del computer fornisce una stima superiore della quantità di informazioni. La memoria volatile, dopo averla alimentata, viene solitamente inizializzata con un certo valore, ad esempio tutti uno o tutti zeri. È chiaro che dopo aver acceso la memoria, non ci sono informazioni, poiché i valori nelle celle di memoria sono rigorosamente definiti, non c'è incertezza. La memoria può immagazzinare una certa quantità di informazioni, ma dopo che viene alimentata, non contiene più informazioni.

La disinformazione è un'informazione deliberatamente falsa fornita a un nemico o a un partner commerciale per operazioni di combattimento più efficaci, cooperazione, controllo della fuga di informazioni e direzione della fuga, identificazione di potenziali clienti del mercato nero. Anche la disinformazione (anche disinformata) è il processo di manipolazione informazioni stesse, come ad esempio: ingannare qualcuno fornendo informazioni incomplete o complete ma non più necessarie, falsare il contesto, falsare parte dell'informazione.


L'obiettivo di tale influenza è sempre lo stesso: l'avversario deve agire secondo le esigenze del manipolatore. L'azione del bersaglio contro cui è diretta la disinformazione può consistere nel prendere una decisione di cui il manipolatore ha bisogno o nel rifiutarsi di prendere una decisione che è sfavorevole per il manipolatore. Ma in ogni caso, l'obiettivo finale è l'azione che verrà intrapresa dall'avversario.

La disinformazione, quindi, è un prodotto dell'attività umana, un tentativo di creare una falsa impressione e, di conseguenza, spingere verso le azioni e/o l'inazione desiderate.

Tipi di disinformazione:

Ingannare una persona specifica o un gruppo di persone (inclusa un'intera nazione);

Manipolazione (le azioni di una persona o di un gruppo di persone);

Creare l’opinione pubblica riguardo a un problema o a un oggetto.

La falsa dichiarazione non è altro che un vero e proprio inganno, la fornitura di informazioni false. La manipolazione è un metodo di influenza volto direttamente a cambiare la direzione dell'attività delle persone. Si distinguono i seguenti livelli di manipolazione:

Rafforzare i valori (idee, atteggiamenti) che esistono nella mente delle persone e sono vantaggiosi per il manipolatore;

Parziale cambiamento di opinione su un particolare evento o circostanza;

Un cambiamento radicale negli atteggiamenti di vita.

Creare l'opinione pubblica è la formazione nella società di un certo atteggiamento nei confronti di un problema scelto.


Fonti e collegamenti

ru.wikipedia.org – enciclopedia libera Wikipedia

youtube.com - Hosting di video YouTube

images.yandex.ua - Immagini Yandex

google.com.ua - Immagini di Google

ru.wikibooks.org - Wikibooks

inf1.info – Pianeta Informatica

old.russ.ru – Rivista russa

shkolo.ru – Directory di informazioni

5byte.ru – Sito web di informatica

ssti.ru – Tecnologie dell'informazione

klgtu.ru - Informatica

informatika.sch880.ru - sito web dell'insegnante di informatica O.V. Podvintseva

bibliofond.ru - biblioteca elettronica Bibliofond

life-prog.ru - programmazione

L'informazione è informazione su qualcosa

Concetto e tipologie di informazione, trasmissione ed elaborazione, ricerca e archiviazione delle informazioni

L'informazione è, definizione

L'informazione è Qualunque intelligenza, ricevuti e trasmessi, archiviati da varie fonti. - questa è l'intera raccolta di informazioni sul mondo che ci circonda, su tutti i tipi di processi che si verificano in esso che possono essere percepiti da organismi viventi, macchine elettroniche e altri sistemi di informazione.

- Questo informazioni significative su qualcosa, quando anche la forma della sua presentazione è informazione, cioè ha una funzione di formattazione secondo la sua stessa natura.

L'informazione è tutto ciò che può essere integrato con le nostre conoscenze e ipotesi.

L'informazione è informazioni su qualcosa, indipendentemente dalla forma della sua presentazione.

L'informazione è mentale di qualsiasi organismo psicofisico, prodotto da esso quando utilizza qualsiasi mezzo chiamato mezzo di informazione.

L'informazione è informazioni percepite dagli esseri umani e (o) dagli specialisti. dispositivi come riflesso dei fatti del mondo materiale o spirituale in processi comunicazioni.

L'informazione è dati organizzati in modo tale che abbiano senso per la persona che li gestisce.

L'informazione è il significato che una persona attribuisce ai dati in base alle convenzioni conosciute utilizzate per rappresentarli.

L'informazione è informazioni, spiegazioni, presentazioni.

L'informazione è qualsiasi dato o informazione che interessi a qualcuno.

L'informazione è informazioni su oggetti e fenomeni dell'ambiente, i loro parametri, proprietà e stato, che vengono percepiti dai sistemi di informazione (organismi viventi, macchine di controllo, ecc.) in processi vita e lavoro.

Lo stesso messaggio informativo (articolo di giornale, pubblicità, lettera, telegramma, certificato, racconto, disegno, trasmissione radiofonica, ecc.) può contenere quantità diverse di informazioni per persone diverse, a seconda delle loro conoscenze precedenti, del livello di comprensione di questo messaggio e interesse per esso.

Nei casi in cui si parla di automatizzato lavoro con le informazioni tramite qualsiasi dispositivo tecnico, sono interessati non al contenuto del messaggio, ma a quanti caratteri contiene questo messaggio.

L'informazione è

In relazione all'elaborazione dei dati informatici, per informazione si intende una determinata sequenza di designazioni simboliche (lettere, numeri, immagini grafiche e suoni codificati, ecc.), Portanti un carico semantico e presentate in una forma comprensibile al computer. Ogni nuovo carattere in tale sequenza di caratteri aumenta il volume di informazioni del messaggio.

Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Ad esempio, il concetto di “informazione” è basilare in un corso di informatica, ed è impossibile definirlo attraverso altri concetti più “semplici” (così come in geometria, ad esempio, è impossibile esprimere il contenuto delle informazioni). concetti base “punto”, “retta”, “piano” attraverso concetti più semplici).

Il contenuto dei concetti fondamentali di base in qualsiasi scienza dovrebbe essere spiegato con esempi o identificato confrontandoli con il contenuto di altri concetti. Nel caso del concetto “informazione”, il problema della sua definizione è ancora più complesso, trattandosi di un concetto scientifico generale. Questo concetto è utilizzato in varie scienze (informatica, cibernetica, biologia, fisica, ecc.), e in ciascuna scienza il concetto di “informazione” è associato a diversi sistemi di concetti.

Concetto di informazione

Nella scienza moderna vengono considerati due tipi di informazioni:

L'informazione oggettiva (primaria) è la proprietà degli oggetti materiali e dei fenomeni (processi) di generare una varietà di stati, che attraverso le interazioni (interazioni fondamentali) vengono trasmessi ad altri oggetti e impressi nella loro struttura.

Le informazioni soggettive (semantiche, semantiche, secondarie) sono il contenuto semantico delle informazioni oggettive su oggetti e processi del mondo materiale, formate dalla coscienza umana con l'aiuto di immagini semantiche (parole, immagini e sensazioni) e registrate su un supporto materiale.

Nel senso quotidiano, l'informazione è informazione sul mondo circostante e sui processi che si verificano in esso, percepiti da una persona o da un dispositivo speciale.

Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Secondo il concetto di K. Shannon, l’informazione è la rimozione dell’incertezza, cioè Informazioni che dovrebbero rimuovere, in un modo o nell'altro, l'incertezza esistente nell'acquirente prima di riceverlo e ampliare la sua comprensione dell'oggetto con informazioni utili.

Dal punto di vista di Gregory Beton, l'unità elementare di informazione è una "differenza non indifferente" o differenza effettiva per un sistema di percezione più ampio. Chiama “potenziali” quelle differenze che non vengono percepite e “effettive” quelle percepite. “L’informazione consiste in differenze che non sono indifferenti” (c) “Ogni percezione dell’informazione è necessariamente la ricezione di informazioni sulla differenza”. Dal punto di vista dell'informatica, l'informazione ha una serie di proprietà fondamentali: novità, pertinenza, affidabilità, oggettività, completezza, valore, ecc. La scienza della logica si occupa principalmente dell'analisi delle informazioni. La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di informazione era considerato dai filosofi antichi.

L'informazione è

Prima dell’inizio della Rivoluzione Industriale, determinare l’essenza dell’informazione rimaneva prerogativa soprattutto dei filosofi. Successivamente, la nuova scienza della cibernetica iniziò a considerare le questioni della teoria dell'informazione.

A volte, per comprendere l'essenza di un concetto, è utile analizzare il significato della parola con cui viene indicato questo concetto. Chiarire la forma interna di una parola e studiare la storia del suo utilizzo può gettare una luce inaspettata sul suo significato, oscurato dal consueto uso "tecnologico" della parola e dalle connotazioni moderne.

La parola informazione è entrata nella lingua russa nell'era petrina. Fu registrato per la prima volta nei “Regolamenti Spirituali” del 1721 nel significato di “idea, concetto di qualcosa”. (Nelle lingue europee è stato stabilito prima - intorno al XIV secolo.)

L'informazione è

In base a questa etimologia, per informazione si può intendere qualsiasi cambiamento significativo di forma o, in altre parole, qualsiasi traccia registrata materialmente, formata dall'interazione di oggetti o forze e suscettibile di comprensione. L’informazione, quindi, è una forma convertita di energia. Il portatore di informazioni è un segno e il metodo della sua esistenza è l'interpretazione: identificare il significato di un segno o di una sequenza di segni.

Il significato può essere un evento ricostruito a partire da un segno che ne ha causato il verificarsi (nel caso di segni “naturali” e involontari, come tracce, testimonianze, ecc.), oppure un messaggio (nel caso di segni convenzionali inerenti alla sfera della lingua). È il secondo tipo di segni che costituisce il corpo della cultura umana, che, secondo una definizione, è "un insieme di informazioni trasmesse non ereditariamente".

L'informazione è

I messaggi possono contenere informazioni su fatti o interpretazione di fatti (dal latino interpretatio, interpretazione, traduzione).

Un essere vivente riceve informazioni attraverso i sensi, così come attraverso la riflessione o l'intuizione. Lo scambio di informazioni tra soggetti è comunicazione o comunicazione (dal latino communicatio, messaggio, trasferimento, derivato a sua volta dal latino communico, rendere comune, comunicare, parlare, connettere).

Da un punto di vista pratico, le informazioni vengono sempre presentate sotto forma di messaggio. Il messaggio informativo è associato alla fonte del messaggio, al destinatario del messaggio e al canale di comunicazione.

Ritornando all'etimologia latina della parola informazione, proviamo a rispondere alla domanda su cosa viene data esattamente la forma qui.

È ovvio che, in primo luogo, si tratta di un certo significato, il quale, essendo inizialmente informe e inespresso, esiste solo potenzialmente e deve essere “costruito” per poter essere percepito e trasmesso.

In secondo luogo, alla mente umana, che è addestrata a pensare in modo strutturato e chiaro. In terzo luogo, a una società che, proprio perché i suoi membri condividono questi significati e li usano insieme, acquisisce unità e funzionalità.

L'informazione è

l'informazione come significato intelligente espresso è conoscenza che può essere immagazzinata, trasmessa ed essere la base per la generazione di altra conoscenza. Le forme di conservazione della conoscenza (memoria storica) sono diverse: dai miti, cronache e piramidi alle biblioteche, musei e database informatici.

Informazioni: informazioni sul mondo che ci circonda, sui processi che si verificano in esso che gli organismi viventi percepiscono, gestori macchine e altri sistemi informativi.

La parola "informazione" è latina. Nel corso della sua lunga vita, il suo significato ha subito un'evoluzione, espandendo o restringendo estremamente i suoi confini. Inizialmente la parola “informazione” significava: “rappresentazione”, “concetto”, poi “informazione”, “trasmissione di messaggi”.

Negli ultimi anni, gli scienziati hanno deciso che il significato consueto (universalmente accettato) della parola “informazione” è troppo elastico e vago, e gli hanno dato il seguente significato: “una misura di certezza in un messaggio”.

L'informazione è

La teoria dell’informazione è stata portata in vita dalle esigenze della pratica. La sua presenza è associata a lavoro"Teoria matematica della comunicazione" di Claude Shannon, pubblicata nel 1946. I fondamenti della teoria dell'informazione si basano sui risultati ottenuti da molti scienziati. Nella seconda metà del 20° secolo, il globo brulicava di informazioni trasmesse lungo i cavi telefonici e telegrafici e i canali radio. Successivamente apparvero i computer elettronici: elaboratori di informazioni. E per quel tempo, il compito principale della teoria dell'informazione era, prima di tutto, aumentare l'efficienza dei sistemi di comunicazione. La difficoltà nel progettare e gestire mezzi, sistemi e canali di comunicazione è che non è sufficiente che il progettista e l'ingegnere risolvano il problema dal punto di vista fisico ed energetico. Da questi punti di vista il sistema può risultare il più avanzato ed economico. Ma quando si creano sistemi di trasmissione, è importante prestare attenzione a quante informazioni passeranno attraverso questo sistema di trasmissione. Dopotutto, le informazioni possono essere misurate quantitativamente, contate. E in tali calcoli agiscono nel modo più consueto: astraono dal significato del messaggio, così come abbandonano la concretezza nelle operazioni aritmetiche a tutti noi familiari (passando dall'addizione di due mele e tre mele all'addizione di numeri in generale: 2+3).

Gli scienziati hanno affermato di "ignorare completamente la valutazione umana delle informazioni". Ad una serie sequenziale di 100 lettere, ad esempio, assegnano un certo significato di informazione, senza prestare attenzione se questa informazione abbia senso e se, a sua volta, abbia senso nell'applicazione pratica. L’approccio quantitativo è la branca più sviluppata della teoria dell’informazione. Secondo questa definizione, una raccolta di 100 lettere (una frase di 100 lettere tratta da un giornale, un'opera di Shakespeare o il teorema di Einstein) contiene esattamente la stessa quantità di informazioni.

Questa definizione di quantità di informazione è estremamente utile e pratica. Corrisponde esattamente al compito dell'ingegnere delle comunicazioni, che deve trasmettere tutte le informazioni contenute nel telegramma inviato, indipendentemente dal valore di tali informazioni per il destinatario. Il canale di comunicazione è senz'anima. Una cosa è importante per il sistema di trasmissione: trasmettere la quantità richiesta di informazioni in un determinato tempo. Come calcolare la quantità di informazioni in un particolare messaggio?

L'informazione è

La stima della quantità di informazioni si basa sulle leggi della teoria della probabilità, più precisamente, viene determinata probabilità eventi. Questo è comprensibile. Un messaggio ha valore e trasporta informazioni solo quando da esso apprendiamo l'esito di un evento di natura casuale, quando è in una certa misura inaspettato. Dopotutto, il messaggio su ciò che è già noto non contiene alcuna informazione. Quelli. Se, ad esempio, qualcuno ti chiama al telefono e dice: "Di giorno è chiaro e di notte è buio", allora un messaggio del genere ti sorprenderà solo con l'assurdità di affermare qualcosa di ovvio e noto a tutti, e non con le notizie che contiene. Un'altra cosa, ad esempio, è il risultato di una gara. Chi arriverà per primo? In questo caso il risultato è difficile da prevedere: quanto più casuali sono gli esiti di un evento che ci interessa, tanto più prezioso è il messaggio sul suo risultato e maggiore è la quantità di informazioni. Un messaggio relativo a un evento che ha solo due esiti ugualmente possibili contiene una singola unità di informazione chiamata bit. La scelta dell'unità informativa non è casuale. È associato al modo binario più comune di codificarlo durante la trasmissione e l'elaborazione. Proviamo, almeno nella forma più semplificata, a immaginare il principio generale della valutazione quantitativa dell'informazione, che è la pietra angolare di tutta la teoria dell'informazione.

Sappiamo già che la quantità di informazioni dipende da probabilità determinati esiti dell’evento. Se un evento, come dicono gli scienziati, ha due esiti ugualmente probabili, ciò significa che ciascun esito è pari a 1/2. Questa è la probabilità che si ottenga testa o croce lanciando una moneta. Se un evento ha tre esiti ugualmente probabili, la probabilità di ciascuno è 1/3. Si noti che la somma delle probabilità di tutti i risultati è sempre uguale a uno: dopo tutto, tra tutti i possibili risultati si verificherà sicuramente. Un evento, come tu stesso capisci, può avere esiti inegualmente probabili. Quindi, in una partita di calcio tra una squadra forte e una debole, la probabilità che la squadra forte vinca è alta, ad esempio 4/5. ci sono molti meno pareggi, ad esempio 3/20. La probabilità di sconfitta è molto piccola.

Si scopre che la quantità di informazioni è una misura per ridurre l'incertezza di una determinata situazione. Varie quantità di informazioni vengono trasmesse sui canali di comunicazione e la quantità di informazioni che passano attraverso il canale non può essere superiore alla sua capacità. Ed è determinato dalla quantità di informazioni che passano qui nell'unità di tempo. Uno degli eroi del romanzo di Jules Verne "L'isola misteriosa", ha riferito il giornalista Gideon Spillett apparecchio telefonico capitolo della Bibbia in modo che i suoi concorrenti non potessero utilizzare il servizio telefonico. In questo caso, il canale era completamente caricato e la quantità di informazioni era pari a zero, poiché le informazioni a lui note venivano trasmesse all'abbonato. Ciò significa che il canale era inattivo, trasmettendo un numero di impulsi rigorosamente definito senza caricarli di nulla. Nel frattempo, maggiore è la quantità di informazioni trasportate da ciascuno di un certo numero di impulsi, maggiore è l'utilizzo della capacità del canale. Pertanto, è necessario codificare saggiamente le informazioni, trovare un linguaggio economico e sobrio per trasmettere i messaggi.

Le informazioni vengono “setacciate” nel modo più approfondito. Nel telegrafo, le lettere più frequenti, le combinazioni di lettere e persino intere frasi sono rappresentate da un insieme più breve di zeri e uno, mentre quelle che ricorrono meno frequentemente sono rappresentate da un insieme più lungo. Nel caso in cui la lunghezza della parola in codice viene ridotta per i simboli frequenti e aumentata per quelli rari, si parla di codifica efficace delle informazioni. Ma in pratica, accade spesso che il codice risultante dal "vagliamento" più accurato, il codice è conveniente ed economico, possa distorcere il messaggio a causa di interferenze, cosa che, sfortunatamente, accade sempre nei canali di comunicazione: suono distorsione nel telefono, interferenze atmosferiche in, distorsione o oscuramento dell'immagine in televisione, errori di trasmissione in telegrafo. Questa interferenza, o come lo chiamano gli esperti, rumore, attacca l'informazione. E questo porta alle sorprese più incredibili e, naturalmente, spiacevoli.

Pertanto, per aumentare l'affidabilità nella trasmissione e nell'elaborazione delle informazioni, è necessario introdurre caratteri aggiuntivi, una sorta di protezione contro la distorsione. Loro - questi simboli extra - non portano il contenuto effettivo del messaggio, sono ridondanti. Dal punto di vista della teoria dell'informazione, tutto ciò che rende un linguaggio colorato, flessibile, ricco di sfumature, sfaccettato, multivalore è ridondanza. Quanto è ridondante da questo punto di vista la lettera di Tatyana a Onegin! Quanta informazione in eccesso c'è in esso per un messaggio breve e comprensibile "Ti amo"! E quanto sono accurati dal punto di vista informativo i segnali disegnati a mano, comprensibili a tutti coloro che oggi entrano nella metropolitana, dove al posto delle parole e delle frasi degli annunci ci sono laconici segni simbolici che indicano: “Ingresso”, “Uscita”.

A questo proposito è utile ricordare l'aneddoto raccontato una volta dal famoso scienziato americano Benjamin Franklin su un cappellaio che invitò i suoi amici a discutere il progetto di un'insegna: avrebbe dovuto disegnare un cappello sull'insegna e scrivere: “John Thompson , un cappellaio, produce e vende cappelli in contanti. Uno dei miei amici ha notato che le parole "per contanti" soldi" non sono necessari: un simile promemoria sarebbe offensivo acquirente. Un altro ha anche trovato superflua la parola “vende”, poiché è ovvio che il cappellaio vende cappelli e non li regala gratuitamente. Il terzo pensava che le parole “fabbricante di cappelli” e “fa cappelli” fossero una tautologia inutile, e le ultime parole furono scartate. Il quarto ha suggerito di eliminare anche la parola "cappellaio": il cappello dipinto dice chiaramente chi è John Thompson. Infine, il quinto ha assicurato che per acquirente non faceva assolutamente alcuna differenza se il cappellaio si chiamasse John Thompson o no, e propose di fare a meno di questa indicazione, così alla fine sull'insegna non rimase altro che il cappello. Naturalmente, se le persone utilizzassero solo questo tipo di codici, senza ridondanza nei messaggi, tutti i "moduli di informazione" - libri, rapporti, articoli - sarebbero estremamente brevi. Ma perderebbero in chiarezza e bellezza.

Le informazioni possono essere suddivise in tipologie secondo diversi criteri: in verità: vero e falso;

attraverso la percezione:

Visivo: percepito dagli organi della vista;

Uditivo: percepito dagli organi dell'udito;

Tattile: percepito dai recettori tattili;

Olfattivo - percepito dai recettori olfattivi;

Gustativo - percepito dalle papille gustative.

secondo il modulo di presentazione:

Testo: trasmesso sotto forma di simboli destinati a denotare lessemi della lingua;

Numerico - sotto forma di numeri e segni che indicano operazioni matematiche;

Grafica: sotto forma di immagini, oggetti, grafici;

Suono: trasmissione orale o registrata di lessemi linguistici mediante mezzi uditivi.

intenzionalmente:

Messa: contiene informazioni banali e opera con una serie di concetti comprensibili alla maggior parte della società;

Speciale: contiene una serie specifica di concetti; quando utilizzata, vengono trasmesse informazioni che potrebbero non essere comprensibili alla maggior parte della società, ma che sono necessarie e comprensibili all'interno del ristretto gruppo sociale in cui tali informazioni vengono utilizzate;

Segreto: trasmesso a una ristretta cerchia di persone e attraverso canali chiusi (protetti);

Personale (privato): un insieme di informazioni su una persona che determina lo stato sociale e i tipi di interazioni sociali all'interno della popolazione.

per valore:

Rilevante: informazioni preziose in un dato momento nel tempo;

Affidabile: informazioni ottenute senza distorsioni;

Comprensibile: informazioni espresse in un linguaggio comprensibile a coloro a cui sono destinate;

Completo: informazioni sufficienti per prendere la giusta decisione o comprensione;

Utile: l'utilità delle informazioni è determinata dal soggetto che ha ricevuto le informazioni in base all'ambito delle possibilità di utilizzo.

Il valore dell'informazione nei diversi campi del sapere

Oggigiorno nella teoria dell'informazione vengono sviluppati molti sistemi, metodi, approcci e idee. Tuttavia, gli scienziati ritengono che le nuove tendenze nella teoria dell'informazione si aggiungeranno alle tendenze moderne e appariranno nuove idee. A prova della correttezza dei loro presupposti, citano la natura “viva” e in via di sviluppo della scienza, sottolineando che la teoria dell'informazione viene introdotta sorprendentemente rapidamente e saldamente nelle più diverse aree della conoscenza umana. La teoria dell'informazione è penetrata nella fisica, nella chimica, nella biologia, nella medicina, nella filosofia, nella linguistica, nella pedagogia, nell'economia, nella logica, nelle scienze tecniche e nell'estetica. Secondo gli stessi esperti, la dottrina dell'informazione, nata per esigenze della teoria delle comunicazioni e della cibernetica, ha varcato i loro confini. E ora, forse, abbiamo il diritto di parlare di informazione come di un concetto scientifico che mette nelle mani dei ricercatori un metodo teorico-informativo con l'aiuto del quale si può penetrare in molte scienze sulla natura vivente e inanimata, sulla società, che permetterà non solo di guardare tutti i problemi da una nuova prospettiva, ma anche di vedere ciò che non si è ancora visto. Ecco perché il termine "informazione" si è diffuso nel nostro tempo, diventando parte di concetti come sistema informativo, cultura dell'informazione e persino etica dell'informazione.

Molte discipline scientifiche utilizzano la teoria dell'informazione per evidenziare nuove direzioni nelle vecchie scienze. È così che sono nate, ad esempio, la geografia dell’informazione, l’economia dell’informazione e il diritto dell’informazione. Ma il termine "informazione" ha acquisito un'importanza estremamente grande in connessione con lo sviluppo della più recente tecnologia informatica, l'automazione del lavoro mentale, lo sviluppo di nuovi mezzi di comunicazione ed elaborazione delle informazioni e soprattutto con l'emergere dell'informatica. Uno dei compiti più importanti della teoria dell'informazione è lo studio della natura e delle proprietà delle informazioni, la creazione di metodi per elaborarle, in particolare la trasformazione di un'ampia varietà di informazioni moderne in programmi informatici, con l'aiuto dei quali l'automazione del lavoro mentale - una sorta di rafforzamento dell'intelligenza e quindi dello sviluppo delle risorse intellettuali della società.

La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di “informazione” è basilare in un corso di informatica, ma è impossibile definirlo attraverso altri concetti più “semplici”. Il concetto di “informazione” è utilizzato in varie scienze, e in ogni scienza il concetto di “ informazione” è associata a diversi sistemi di concetti. Informazioni in biologia: la biologia studia la natura vivente e il concetto di “informazione” è associato al comportamento appropriato degli organismi viventi. Negli organismi viventi l'informazione viene trasmessa e immagazzinata utilizzando oggetti di diversa natura fisica (stato del DNA), che sono considerati segni di alfabeti biologici. Le informazioni genetiche vengono ereditate e archiviate in tutte le cellule degli organismi viventi. Approccio filosofico: l'informazione è interazione, riflessione, cognizione. Approccio cibernetico: l'informazione è caratteristiche manager segnale trasmesso su una linea di comunicazione.

Il ruolo dell'informazione in filosofia

Il tradizionalismo del soggettivo dominava costantemente nelle prime definizioni dell'informazione come categoria, concetto, proprietà del mondo materiale. L'informazione esiste al di fuori della nostra coscienza e può riflettersi nella nostra percezione solo come risultato dell'interazione: riflessione, lettura, ricezione sotto forma di segnale, stimolo. L'informazione non è materiale, come tutte le proprietà della materia. L'informazione sta nel seguente ordine: materia, spazio, tempo, sistematicità, funzione, ecc., che sono i concetti fondamentali di una riflessione formalizzata della realtà oggettiva nella sua distribuzione e variabilità, diversità e manifestazioni. L'informazione è una proprietà della materia e ne riflette le proprietà (stato o capacità di interagire) e la quantità (misura) attraverso l'interazione.

Da un punto di vista materiale, l'informazione è l'ordine degli oggetti nel mondo materiale. Ad esempio, l'ordine delle lettere su un foglio di carta secondo determinate regole è un'informazione scritta. L'ordine dei punti multicolori su un foglio di carta secondo determinate regole è un'informazione grafica. L'ordine delle note musicali è un'informazione musicale. L'ordine dei geni nel DNA è un'informazione ereditaria. L'ordine dei bit in un computer è l'informazione del computer, ecc. e così via. Per effettuare lo scambio di informazioni è richiesta la presenza delle condizioni necessarie e sufficienti.

L'informazione è

Le condizioni necessarie:

La presenza di almeno due oggetti diversi del mondo materiale o immateriale;

La presenza di una proprietà comune tra gli oggetti che consente di identificarli come portatori di informazioni;

La presenza di una proprietà specifica negli oggetti che consente loro di distinguere gli oggetti l'uno dall'altro;

La presenza di una proprietà spaziale che consente di determinare l'ordine degli oggetti. Ad esempio, la disposizione delle informazioni scritte su carta è una proprietà specifica della carta che consente di disporre le lettere da sinistra a destra e dall'alto verso il basso.

C'è una sola condizione sufficiente: la presenza di un soggetto in grado di riconoscere le informazioni. Questo è l’uomo e la società umana, società di animali, robot, ecc. Un messaggio informativo viene costruito selezionando copie di oggetti da una base e disponendo questi oggetti nello spazio in un determinato ordine. La lunghezza del messaggio informativo è definita come il numero di copie degli oggetti base ed è sempre espressa come numero intero. È necessario distinguere tra la lunghezza di un messaggio informativo, che è sempre misurata in un numero intero, e la quantità di conoscenza contenuta in un messaggio informativo, che è misurata in un'unità di misura sconosciuta. Da un punto di vista matematico, l'informazione è una sequenza di numeri interi scritti in un vettore. I numeri sono il numero dell'oggetto nella base informativa. Il vettore è detto invariante informativo poiché non dipende dalla natura fisica degli oggetti base. Lo stesso messaggio informativo può essere espresso in lettere, parole, frasi, file, immagini, note, canzoni, videoclip e qualsiasi combinazione di quanto sopra.

L'informazione è

Il ruolo dell'informazione in fisica

le informazioni sono informazioni sul mondo circostante (oggetto, processo, fenomeno, evento), che è oggetto di trasformazione (inclusa memorizzazione, trasmissione, ecc.) e viene utilizzata per sviluppare comportamenti, per il processo decisionale, per la gestione o per l'apprendimento.

Gli elementi caratteristici delle informazioni sono i seguenti:

Questa è la risorsa più importante della produzione moderna: riduce il bisogno di terra, manodopera, capitale e riduce il consumo di materie prime ed energia. Quindi, ad esempio, se hai la possibilità di archiviare i tuoi file (cioè avere tali informazioni), non devi spendere soldi per acquistare nuovi floppy disk;

Le informazioni danno vita a nuove produzioni. Ad esempio, l'invenzione del raggio laser è stata la ragione della nascita e dello sviluppo della produzione di dischi laser (ottici);

L'informazione è una merce e non viene persa dopo la vendita. Quindi, se uno studente comunica al suo amico informazioni sull'orario delle lezioni durante il semestre, non perderà questi dati per se stesso;

Le informazioni aggiungono valore ad altre risorse, in particolare alla manodopera. Infatti, un lavoratore con un titolo di studio superiore è valutato più di uno con un titolo di studio secondario.

Come segue dalla definizione, tre concetti sono sempre associati all'informazione:

La fonte dell'informazione è quell'elemento del mondo circostante (oggetto, fenomeno, evento), l'informazione su cui è oggetto di trasformazione. Pertanto, la fonte di informazioni che il lettore di questo libro di testo riceve attualmente è l'informatica come sfera dell'attività umana;

L'acquirente dell'informazione è quell'elemento del mondo circostante che utilizza l'informazione (per sviluppare comportamenti, prendere decisioni, gestire o apprendere). L'acquirente di queste informazioni è il lettore stesso;

Un segnale è un mezzo materiale che registra informazioni per trasferirle dalla sorgente al destinatario. In questo caso il segnale è di natura elettronica. Se uno studente prende questo manuale dalla biblioteca, le stesse informazioni saranno su carta. Dopo essere state lette e ricordate dallo studente, le informazioni acquisiranno un altro supporto: quello biologico, quando verranno “registrate” nella memoria dello studente.

Il segnale è l'elemento più importante in questo circuito. Le forme della sua presentazione, nonché le caratteristiche quantitative e qualitative delle informazioni in esso contenute, che sono importanti per l'acquirente delle informazioni, sono discusse ulteriormente in questa sezione del libro di testo. Le principali caratteristiche di un computer come strumento principale che mappa la fonte di informazione in un segnale (link 1 in figura) e “porta” il segnale al destinatario dell'informazione (link 2 in figura) sono riportate nella sezione Computer . La struttura delle procedure che implementano i collegamenti 1 e 2 e compongono il processo informativo è oggetto di considerazione nella parte Processo Informativo.

Gli oggetti del mondo materiale sono in uno stato di cambiamento continuo, caratterizzato dallo scambio di energia tra l'oggetto e l'ambiente. Un cambiamento nello stato di un oggetto porta sempre a un cambiamento nello stato di qualche altro oggetto ambientale. Questo fenomeno, indipendentemente da come, quali stati e quali oggetti siano cambiati, può essere considerato come la trasmissione di un segnale da un oggetto a un altro. La modifica dello stato di un oggetto quando gli viene trasmesso un segnale è chiamata registrazione del segnale.

Un segnale o una sequenza di segnali forma un messaggio che può essere percepito dal destinatario in una forma o nell'altra, nonché nell'uno o nell'altro volume. Informazione in fisica è un termine che generalizza qualitativamente i concetti di “segnale” e “messaggio”. Se segnali e messaggi possono essere quantificati, allora possiamo dire che segnali e messaggi sono unità di misura del volume di informazioni. Il messaggio (segnale) viene interpretato in modo diverso da sistemi diversi. Ad esempio, un segnale acustico lungo e due brevi nella terminologia del codice Morse corrisponde alla lettera de (o D), nella terminologia BIOS della società premiata si tratta di un malfunzionamento della scheda video.

L'informazione è

Il ruolo dell'informazione in matematica

In matematica, la teoria dell'informazione (teoria matematica della comunicazione) è una sezione della matematica applicata che definisce il concetto di informazione, le sue proprietà e stabilisce relazioni limitanti per i sistemi di trasmissione dei dati. I rami principali della teoria dell'informazione sono la codifica della sorgente (codifica di compressione) e la codifica del canale (resistente al rumore). La matematica è più di una disciplina scientifica. Crea un linguaggio unificato per tutta la scienza.

L'oggetto della ricerca matematica sono oggetti astratti: numero, funzione, vettore, insieme e altri. Inoltre, la maggior parte di essi viene introdotta assiomaticamente (assioma), ad es. senza alcun collegamento con altri concetti e senza alcuna definizione.

L'informazione è

le informazioni non sono incluse nell’ambito della ricerca matematica. Tuttavia, la parola "informazione" è usata in termini matematici: autoinformazione e informazione reciproca, legate alla parte astratta (matematica) della teoria dell'informazione. Tuttavia, nella teoria matematica, il concetto di "informazione" è associato esclusivamente a oggetti astratti - variabili casuali, mentre nella moderna teoria dell'informazione questo concetto è considerato in modo molto più ampio - come una proprietà degli oggetti materiali. La connessione tra questi due termini identici è innegabile. Era l'apparato matematico dei numeri casuali utilizzato dall'autore della teoria dell'informazione, Claude Shannon. Lui stesso intende con il termine “informazione” qualcosa di fondamentale (irriducibile). La teoria di Shannon presuppone intuitivamente che l'informazione abbia un contenuto. Le informazioni riducono l’incertezza complessiva e l’entropia dell’informazione. La quantità di informazioni è misurabile. Tuttavia, mette in guardia i ricercatori dal trasferire meccanicamente concetti dalla sua teoria ad altri settori della scienza.

"La ricerca di modi per applicare la teoria dell'informazione in altri campi della scienza non si riduce a un banale trasferimento di termini da un campo della scienza a un altro. Questa ricerca viene effettuata in un lungo processo di presentazione di nuove ipotesi e della loro verifica sperimentale .” K. Shannon.

L'informazione è

Il ruolo dell'informazione nella cibernetica

Il fondatore della cibernetica, Norbert Wiener, parlava di informazioni in questo modo:

l'informazione non è materia o energia, l'informazione è informazione." Ma la definizione fondamentale di informazione, che ha dato in molti dei suoi libri, è la seguente: l'informazione è una designazione del contenuto che riceviamo dal mondo esterno, nel processo di adattando noi e i nostri sentimenti.

L’informazione è il concetto base della cibernetica, così come l’informazione economica è il concetto base della cibernetica economica.

Esistono molte definizioni di questo termine, sono complesse e contraddittorie. La ragione, ovviamente, è che la cibernetica come fenomeno è studiata da diverse scienze, e la cibernetica è solo la più giovane di queste. L'informazione è oggetto di studio di scienze come la scienza del management, la matematica, la genetica e la teoria dei mass media (stampa, Radio, televisione), l'informatica, che si occupa dei problemi dell'informazione scientifica e tecnica, ecc. Infine, recentemente i filosofi hanno mostrato un grande interesse per i problemi dell'informazione: tendono a considerare l'informazione come una delle principali proprietà universali della materia, associata con il concetto di riflessione. Tutte le interpretazioni del concetto di informazione presuppongono l'esistenza di due oggetti: la fonte dell'informazione e l'acquirente (destinatario) dell'informazione. Il trasferimento delle informazioni dall'uno all'altro avviene con l'aiuto di segnali che, in generale, potrebbe non avere alcun collegamento fisico con il suo significato: questa comunicazione è determinata di comune accordo. Ad esempio, suonare la campana della veche significava che ci si doveva radunare in piazza, ma a chi non conosceva quest'ordine non si comunicava alcuna informazione.

In una situazione con campana veche, chi partecipa all'accordo sul significato del segnale sa che al momento possono esserci due alternative: l'incontro veche avrà luogo oppure no. Oppure, nel linguaggio della teoria dell'informazione, un evento incerto (veche) ha due esiti. Il segnale ricevuto porta ad una diminuzione dell'incertezza: la persona ora sa che l'evento (sera) ha un solo risultato: avrà luogo. Tuttavia, se si sapesse in anticipo che l'incontro si sarebbe svolto a quell'ora, la campana non avrebbe annunciato nulla di nuovo. Ne consegue che quanto meno probabile (cioè più inaspettato) è il messaggio, tanto più informazioni contiene, e viceversa, tanto maggiore è la probabilità dell’esito prima che si verifichi l’evento, tanto meno informazioni contiene. Più o meno lo stesso ragionamento fu fatto negli anni '40. XX secolo all’emergere di una teoria statistica, o “classica”, dell’informazione, che definisce il concetto di informazione attraverso la misura di riduzione dell’incertezza della conoscenza circa il verificarsi di un evento (questa misura era chiamata entropia). Gli originari di questa scienza furono N. Wiener, K. Shannon e gli scienziati sovietici A. N. Kolmogorov, V. A. Kotelnikov e altri, che riuscirono a ricavare leggi matematiche per misurare la quantità di informazioni, e da qui concetti come capacità del canale e capacità di stoccaggio di dispositivi I., ecc., che servirono come potente incentivo per lo sviluppo della cibernetica come scienza e della tecnologia informatica elettronica come applicazione pratica delle conquiste della cibernetica.

Per quanto riguarda la determinazione del valore e dell'utilità delle informazioni per il destinatario, ci sono ancora molti aspetti irrisolti e poco chiari. Se partiamo dalle esigenze della gestione economica e, quindi, della cibernetica economica, allora l’informazione può essere definita come tutte quelle informazioni, conoscenze e messaggi che aiutano a risolvere un particolare problema gestionale (cioè a ridurre l’incertezza dei suoi risultati). Quindi si aprono alcune opportunità per valutare le informazioni: sono più utili, più preziose, prima o con meno costi porta ad una soluzione del problema. Il concetto di informazione è vicino al concetto di dato. C’è però una differenza tra loro: i dati sono segnali da cui è ancora necessario estrarre informazioni, l’elaborazione dei dati è il processo che li porta in una forma adatta a questo scopo.

Il processo del loro trasferimento dalla fonte al destinatario e la percezione come informazione può essere considerato come un passaggio attraverso tre filtri:

Fisico o statistico (limitazione puramente quantitativa della capacità del canale, indipendentemente dal contenuto dei dati, cioè dal punto di vista sintattico);

Semantica (selezione di quei dati che possono essere compresi dal destinatario, cioè corrispondono al thesaurus della sua conoscenza);

Pragmatico (selezione tra le informazioni comprese di quelle utili per risolvere un dato problema).

Ciò è chiaramente mostrato nel diagramma tratto dal libro di E. G. Yasin sull’informazione economica. Di conseguenza, si distinguono tre aspetti dello studio dei problemi linguistici: sintattico, semantico e pragmatico.

Secondo il contenuto, le informazioni sono suddivise in sociopolitiche, socioeconomiche (comprese le informazioni economiche), scientifiche e tecniche, ecc. In generale, esistono molte classificazioni delle informazioni, basate su basi diverse. Di norma, a causa della vicinanza dei concetti, le classificazioni dei dati sono costruite allo stesso modo. Ad esempio, le informazioni sono divise in statiche (costanti) e dinamiche (variabili) e i dati sono suddivisi in costanti e variabili. Un'altra divisione è quella delle informazioni primarie, derivate e di output (anche i dati sono classificati allo stesso modo). La terza divisione è I. controllare e informare. Quarto: ridondante, utile e falso. Quinto: completo (continuo) e selettivo. Questa idea di Wiener dà un'indicazione diretta dell'oggettività dell'informazione, vale a dire la sua esistenza in natura è indipendente dalla coscienza umana (percezione).

L'informazione è

La cibernetica moderna definisce l'informazione oggettiva come la proprietà oggettiva degli oggetti e dei fenomeni materiali di generare una varietà di stati che, attraverso le interazioni fondamentali della materia, vengono trasmessi da un oggetto (processo) a un altro e sono impressi nella sua struttura. Un sistema materiale in cibernetica è considerato come un insieme di oggetti che a loro volta possono trovarsi in stati diversi, ma lo stato di ciascuno di essi è determinato dagli stati degli altri oggetti del sistema.

L'informazione è

In natura, molti stati di un sistema rappresentano informazioni; gli stati stessi rappresentano il codice primario, o codice sorgente. Pertanto, ogni sistema materiale è una fonte di informazione. La cibernetica definisce l'informazione soggettiva (semantica) come il significato o il contenuto di un messaggio.

Il ruolo dell'informazione nell'informatica

L'oggetto della scienza sono i dati: metodi della loro creazione, archiviazione, elaborazione e trasmissione. Contenuto (anche: “contenuto” (nel contesto), “contenuto del sito”) è un termine che indica tutti i tipi di informazioni (sia testuali che multimediali - immagini, audio, video) che compongono il contenuto (visualizzato, per il visitatore, contenuto ) del sito web. Viene utilizzato per separare il concetto di informazione che costituisce la struttura interna di una pagina/sito (codice) da ciò che alla fine verrà visualizzato sullo schermo.

La parola “informazione” deriva dal latino informatio, che significa informazione, spiegazione, introduzione. Il concetto di “informazione” è basilare in un corso di informatica, ma è impossibile definirlo attraverso altri concetti più “semplici”.

Si possono distinguere i seguenti approcci per la determinazione delle informazioni:

Tradizionale (ordinario) - utilizzato in informatica: l'informazione è informazione, conoscenza, messaggi sullo stato delle cose che una persona percepisce dal mondo esterno utilizzando i sensi (vista, udito, gusto, olfatto, tatto).

Probabilistico - utilizzato nella teoria dell'informazione: l'informazione è informazione su oggetti e fenomeni dell'ambiente, i loro parametri, proprietà e stato, che riducono il grado di incertezza e incompletezza della conoscenza su di essi.

Le informazioni vengono archiviate, trasmesse ed elaborate in forma simbolica (segno). Le stesse informazioni possono essere presentate in diverse forme:

Scrittura di segni, composta da vari segni, tra i quali si distinguono quelli simbolici sotto forma di testo, numeri, speciali. caratteri; grafico; tabellare, ecc.;

Sotto forma di gesti o segnali;

Forma verbale orale (conversazione).

Le informazioni vengono presentate utilizzando le lingue come sistemi di segni, che sono costruiti sulla base di un alfabeto specifico e dispongono di regole per eseguire operazioni sui segni. La lingua è un sistema di segni specifico per la presentazione delle informazioni. Esistere:

Le lingue naturali sono lingue parlate in forma parlata e scritta. In alcuni casi, la lingua parlata può essere sostituita dalla lingua delle espressioni facciali e dei gesti, dalla lingua dei segni speciali (ad esempio, i segnali stradali);

Le lingue formali sono lingue speciali per varie aree dell'attività umana, caratterizzate da un alfabeto rigorosamente fisso e regole grammaticali e sintattiche più rigide. Questo è il linguaggio della musica (note), il linguaggio della matematica (numeri, simboli matematici), sistemi numerici, linguaggi di programmazione, ecc. La base di ogni lingua è l'alfabeto, un insieme di simboli/segni. Il numero totale di simboli dell'alfabeto è solitamente chiamato potenza dell'alfabeto.

Il supporto informativo è un mezzo o un corpo fisico per trasmettere, archiviare e riprodurre informazioni. (Questi sono elettrici, luminosi, termici, acustici, Radio segnali, dischi magnetici e laser, pubblicazioni stampate, fotografie, ecc.)

I processi informativi sono processi associati alla ricezione, archiviazione, elaborazione e trasmissione delle informazioni (ovvero, azioni eseguite con le informazioni). Quelli. Si tratta di processi durante i quali cambia il contenuto delle informazioni o la forma della sua presentazione.

Per garantire il processo informativo sono necessari una fonte di informazione, un canale di comunicazione e un acquirente di informazioni. La fonte trasmette (invia) informazioni e il ricevitore le riceve (percepisce). Le informazioni trasmesse viaggiano dalla sorgente al ricevitore utilizzando un segnale (codice). La modifica del segnale consente di ottenere informazioni.

Essendo oggetto di trasformazione e utilizzo, l'informazione è caratterizzata dalle seguenti proprietà:

La sintassi è una proprietà che determina il modo in cui le informazioni vengono presentate su un mezzo (in un segnale). Pertanto, queste informazioni vengono presentate sui media elettronici utilizzando un carattere specifico. Qui puoi anche considerare parametri di presentazione delle informazioni come stile e colore del carattere, dimensione, interlinea, ecc. La scelta dei parametri necessari come proprietà sintattiche è ovviamente determinata dal metodo di trasformazione previsto. Ad esempio, per una persona con problemi di vista, la dimensione e il colore del carattere sono importanti. Se prevedi di inserire questo testo in un computer tramite uno scanner, il formato della carta è importante;

La semantica è una proprietà che determina il significato dell'informazione come corrispondenza del segnale al mondo reale. Pertanto, la semantica del segnale “informatica” risiede nella definizione data in precedenza. La semantica può essere considerata come un accordo, noto a chi acquisisce l'informazione, sul significato di ciascun segnale (la cosiddetta regola di interpretazione). Ad esempio, è la semantica dei segnali che un automobilista alle prime armi studia, studiando le regole della strada, imparando la segnaletica stradale (in questo caso i segnali stessi sono i segnali). La semantica delle parole (segnali) viene appresa da uno studente di una lingua straniera. Possiamo dire che lo scopo dell'insegnamento dell'informatica è studiare la semantica di vari segnali: l'essenza dei concetti chiave di questa disciplina;

La pragmatica è una proprietà che determina l'influenza delle informazioni sul comportamento dell'acquirente. Pertanto, la pragmatica delle informazioni ricevute dal lettore di questo libro di testo è, come minimo, il superamento con successo dell'esame di informatica. Mi piacerebbe credere che la pragmatica di questo lavoro non si limiterà a questo, ma servirà per l'ulteriore formazione e attività professionale del lettore.

L'informazione è

Va notato che segnali che differiscono nella sintassi possono avere la stessa semantica. Ad esempio, i segnali “computer” e “computer” indicano un dispositivo elettronico per la conversione delle informazioni. In questo caso si parla solitamente di sinonimia di segnale. D'altra parte, un segnale (cioè un'informazione con una proprietà sintattica) può avere pragmatica diversa per i consumatori e semantica diversa. Pertanto, un segnale stradale denominato “mattone” e con una semantica molto specifica (“divieto di accesso”) significa per un automobilista un divieto di accesso, ma non ha alcun effetto per un pedone. Allo stesso tempo, il segnale “chiave” può avere semantica diversa: chiave di violino, chiave di primavera, chiave per aprire una serratura, chiave utilizzata in informatica per codificare un segnale al fine di proteggerlo da accessi non autorizzati (in in questo caso si parla di omonimia di segnale). Ci sono segnali: contrari che hanno una semantica opposta. Ad esempio, "freddo" e "caldo", "veloce" e "lento", ecc.

L'oggetto di studio dell'informatica sono i dati: metodi per la loro creazione, archiviazione, elaborazione e trasmissione. E l'informazione stessa registrata nei dati, il suo significato significativo, interessa gli utenti dei sistemi informativi che sono specialisti in varie scienze e campi di attività: un medico è interessato alle informazioni mediche, un geologo è interessato alle informazioni geologiche, un uomo d'affari è interessato a informazioni commerciali, ecc. (In particolare, un informatico è interessato a informazioni su come lavorare con i dati).

Semiotica: scienza dell'informazione

Le informazioni non possono essere immaginate senza la loro ricezione, elaborazione, trasmissione, ecc., cioè al di fuori dell'ambito dello scambio di informazioni. Tutti gli atti di scambio di informazioni vengono effettuati attraverso simboli o segni, con l'aiuto dei quali un sistema ne influenza un altro. Pertanto, la scienza principale che studia l'informazione è la semiotica: la scienza dei segni e dei sistemi di segni nella natura e nella società (teoria dei segni). In ogni atto di scambio di informazioni si possono trovare tre “partecipanti”, tre elementi: un segno, un oggetto che designa e un destinatario (utente) del segno.

A seconda delle relazioni tra gli elementi considerati, la semiotica è divisa in tre sezioni: sintattica, semantica e pragmatica. La sintattica studia i segni e le relazioni tra loro. Allo stesso tempo, astrae dal contenuto del segno e dal suo significato pratico per il destinatario. La semantica studia il rapporto tra i segni e gli oggetti che denotano, astraendo dal destinatario dei segni e dal valore di questi ultimi: per lui. È chiaro che lo studio dei modelli di rappresentazione semantica degli oggetti nei segni è impossibile senza tenere conto e utilizzare i modelli generali di costruzione di qualsiasi sistema di segni studiato dalla sintattica. La pragmatica studia la relazione tra i segni e i loro utenti. Nell'ambito della pragmatica, vengono studiati tutti i fattori che distinguono un atto di scambio di informazioni da un altro, tutte le questioni relative ai risultati pratici dell'utilizzo delle informazioni e al suo valore per il destinatario.

In questo caso, molti aspetti dei rapporti dei segni tra loro e con gli oggetti che denotano sono inevitabilmente influenzati. Pertanto, le tre sezioni della semiotica corrispondono a tre livelli di astrazione (distrazione) dalle caratteristiche di specifici atti di scambio di informazioni. Lo studio dell'informazione in tutta la sua diversità corrisponde al livello pragmatico. Distogliendo il destinatario dell'informazione, escludendolo dalla considerazione, passiamo a studiarla a livello semantico. Con l'astrazione dal contenuto dei segni, l'analisi dell'informazione viene trasferita al livello della sintattica. Questa compenetrazione delle principali sezioni della semiotica, associate a diversi livelli di astrazione, può essere rappresentata utilizzando il diagramma “Tre sezioni della semiotica e la loro interrelazione”. La misurazione delle informazioni viene effettuata di conseguenza in tre aspetti: sintattico, semantico e pragmatico. La necessità di dimensioni di informazione così diverse, come verrà mostrato di seguito, è dettata dalla pratica di progettazione e aziende funzionamento dei sistemi informativi. Consideriamo una tipica situazione produttiva.

Alla fine del turno, il pianificatore del cantiere prepara i dati del programma di produzione. Questi dati entrano nel centro informazioni e calcolo (ICC) dell'impresa, dove vengono elaborati e sotto forma di rapporti sullo stato attuale della produzione vengono rilasciati ai manager. Sulla base dei dati ricevuti, il responsabile dell'officina decide di modificare il piano di produzione con quello successivo pianificato o di adottare altre misure organizzative. Ovviamente, per il responsabile del negozio, la quantità di informazioni contenute nel riepilogo dipende dall'entità dell'impatto economico ricevuto dal suo utilizzo nel processo decisionale, da quanto siano state utili le informazioni ricevute. Per il progettista del sito, la quantità di informazioni contenute nello stesso messaggio è determinata dall'accuratezza della sua corrispondenza con l'effettivo stato delle cose sul sito e dal grado di sorpresa dei fatti riportati. Più sono inattesi, prima è necessario segnalarli alla direzione, più informazioni ci sono in questo messaggio. Per i lavoratori dell'ICC, il numero di caratteri e la lunghezza del messaggio che trasporta le informazioni saranno di fondamentale importanza, poiché è questo che determina il tempo di caricamento delle apparecchiature informatiche e dei canali di comunicazione. Allo stesso tempo, non sono praticamente interessati né all'utilità delle informazioni né alla misura quantitativa del valore semantico delle informazioni.

Naturalmente, quando organizziamo un sistema di gestione della produzione e costruiamo modelli di selezione delle decisioni, utilizzeremo l'utilità delle informazioni come misura dell'informatività dei messaggi. Quando si costruisce un sistema contabilità e il reporting che fornisce indicazioni sull’andamento del processo produttivo, la misura della quantità di informazioni dovrebbe essere intesa come novità dell’informazione ricevuta. Azienda Le stesse procedure per l'elaborazione meccanica delle informazioni richiedono la misurazione del volume dei messaggi sotto forma di numero di caratteri elaborati. Questi tre approcci fondamentalmente diversi alla misurazione delle informazioni non sono contraddittori o si escludono a vicenda. Al contrario, misurando le informazioni su scale diverse, consentono una valutazione più completa ed esaustiva del contenuto informativo di ciascun messaggio e organizzano più efficacemente un sistema di gestione della produzione. Secondo la felice espressione del prof. NON. Kobrinsky, quando si tratta di un'azienda razionale di flussi di informazioni, la quantità, la novità e l'utilità delle informazioni sono interconnesse tanto quanto la quantità, la qualità e il costo dei prodotti in produzione.

Informazioni nel mondo materiale

l'informazione è uno dei concetti generali associati alla materia. L'informazione esiste in qualsiasi oggetto materiale sotto forma di una varietà dei suoi stati e viene trasferita da oggetto a oggetto nel processo della loro interazione. L'esistenza dell'informazione come proprietà oggettiva della materia deriva logicamente dalle proprietà fondamentali conosciute della materia: struttura, cambiamento continuo (movimento) e interazione degli oggetti materiali.

La struttura della materia si manifesta come lo smembramento interno dell'integrità, l'ordine naturale di connessione degli elementi all'interno del tutto. In altre parole, qualsiasi oggetto materiale, dalla particella subatomica del Meta Universo (Big Bang) nel suo insieme, è un sistema di sottosistemi interconnessi. A causa del movimento continuo, inteso in senso lato come movimento nello spazio e sviluppo nel tempo, gli oggetti materiali cambiano i loro stati. Gli stati degli oggetti cambiano anche durante le interazioni con altri oggetti. L'insieme degli stati di un sistema materiale e di tutti i suoi sottosistemi rappresenta l'informazione sul sistema.

A rigor di termini, a causa dell’incertezza, dell’infinito e delle proprietà della struttura, la quantità di informazioni oggettive in qualsiasi oggetto materiale è infinita. Questa informazione è chiamata completa. Tuttavia è possibile distinguere livelli strutturali con insiemi finiti di stati. Le informazioni che esistono a livello strutturale con un numero finito di stati sono chiamate private. Per le informazioni private, ha senso il concetto di quantità di informazioni.

Dalla presentazione di cui sopra, è logico e semplice selezionare un'unità di misura per la quantità di informazioni. Immaginiamo un sistema che possa trovarsi solo in due stati ugualmente probabili. Assegniamo ad uno il codice “1” e all'altro “0”. Questa è la quantità minima di informazioni che il sistema può contenere. È un'unità di misura delle informazioni e si chiama bit. Esistono altri metodi e unità, più difficili da definire, per misurare la quantità di informazioni.

A seconda della forma materiale del mezzo, l'informazione è di due tipi principali: analogica e discreta. L'informazione analogica cambia continuamente nel tempo e prende valori da un continuum di valori. Le informazioni discrete cambiano in alcuni momenti nel tempo e prendono valori da un certo insieme di valori. Qualsiasi oggetto o processo materiale è la fonte primaria di informazioni. Tutti i suoi possibili stati costituiscono il codice sorgente dell'informazione. Il valore istantaneo degli stati è rappresentato come un simbolo (“lettera”) di questo codice. Affinché le informazioni possano essere trasmesse da un oggetto a un altro come ricevitore, è necessario che esista una sorta di mezzo materiale intermedio che interagisca con la fonte. Tali portatori in natura, di regola, si propagano rapidamente processi di struttura ondulatoria: radiazioni cosmiche, gamma e raggi X, onde elettromagnetiche e sonore, potenziali (e forse onde non ancora scoperte) del campo gravitazionale. Quando la radiazione elettromagnetica interagisce con un oggetto a causa dell'assorbimento o della riflessione, il suo spettro cambia, ad es. le intensità di alcune lunghezze d'onda cambiano. Le armoniche delle vibrazioni sonore cambiano anche durante le interazioni con gli oggetti. Le informazioni vengono trasmesse anche attraverso l'interazione meccanica, ma l'interazione meccanica, di regola, porta a grandi cambiamenti nella struttura degli oggetti (fino alla loro distruzione) e l'informazione è notevolmente distorta. La distorsione dell'informazione durante la sua trasmissione si chiama disinformazione.

Il trasferimento delle informazioni di origine alla struttura del mezzo è chiamato codifica. In questo caso, il codice sorgente viene convertito nel codice dell'operatore. Il mezzo con il codice sorgente trasferito sotto forma di codice portante è chiamato segnale. Il ricevitore del segnale ha il proprio insieme di possibili stati, chiamato codice del ricevitore. Un segnale, interagendo con un oggetto ricevente, cambia il suo stato. Il processo di conversione di un codice di segnale in un codice di ricevitore è chiamato decodifica.Il trasferimento di informazioni da una sorgente a un ricevitore può essere considerato un'interazione di informazioni. L'interazione delle informazioni è fondamentalmente diversa dalle altre interazioni. In tutte le altre interazioni di oggetti materiali, avviene uno scambio di materia e (o) energia. In questo caso, uno degli oggetti perde materia o energia e l'altro la guadagna. Questa proprietà delle interazioni è chiamata simmetria. Durante l'interazione delle informazioni, il ricevente riceve le informazioni, ma la fonte non le perde. L'interazione delle informazioni è asimmetrica: l'informazione oggettiva in sé non è materiale, è una proprietà della materia, come la struttura, il movimento, ed esiste sui media materiali sotto forma di codici propri.

Informazioni sulla fauna selvatica

La fauna selvatica è complessa e diversificata. Le fonti e i destinatari delle informazioni in esso contenute sono gli organismi viventi e le loro cellule. Un organismo ha una serie di proprietà che lo distinguono dagli oggetti materiali inanimati.

Di base:

Scambio continuo di materia, energia e informazioni con l'ambiente;

Irritabilità, capacità del corpo di percepire ed elaborare informazioni sui cambiamenti nell'ambiente e nell'ambiente interno del corpo;

Eccitabilità, capacità di rispondere agli stimoli;

Auto-organizzazione, manifestata come cambiamenti nel corpo per adattarsi alle condizioni ambientali.

Un organismo, considerato come un sistema, ha una struttura gerarchica. Questa struttura relativa all'organismo stesso è divisa in livelli interni: livello molecolare, cellulare, organo e, infine, l'organismo stesso. Tuttavia l'organismo interagisce anche al di sopra dei sistemi viventi organici, i cui livelli sono la popolazione, l'ecosistema e tutta la natura vivente nel suo insieme (biosfera). Tra tutti questi livelli circolano flussi non solo di materia ed energia, ma anche di informazioni, e le interazioni informative nella natura vivente avvengono allo stesso modo che nella natura inanimata. Allo stesso tempo, la natura vivente nel processo di evoluzione ha creato un'ampia varietà di fonti, portatori e destinatari di informazioni.

La reazione alle influenze del mondo esterno si manifesta in tutti gli organismi, poiché è causata dall'irritabilità. Negli organismi superiori, l'adattamento all'ambiente esterno è un'attività complessa, che è efficace solo con informazioni sufficientemente complete e tempestive sull'ambiente. I ricevitori delle informazioni provenienti dall'ambiente esterno sono i loro organi di senso, che comprendono la vista, l'udito, l'olfatto, il gusto, il tatto e l'apparato vestibolare. Nella struttura interna degli organismi ci sono numerosi recettori interni associati al sistema nervoso. Il sistema nervoso è costituito da neuroni, i cui processi (assoni e dendriti) sono analoghi ai canali di trasmissione delle informazioni. Gli organi principali che immagazzinano ed elaborano le informazioni nei vertebrati sono il midollo spinale e il cervello. A seconda delle caratteristiche dei sensi, le informazioni percepite dal corpo possono essere classificate in visive, uditive, gustative, olfattive e tattili.

Quando il segnale raggiunge la retina dell'occhio umano, eccita in modo particolare le cellule che lo costituiscono. Gli impulsi nervosi dalle cellule vengono trasmessi attraverso gli assoni al cervello. Il cervello ricorda questa sensazione sotto forma di una certa combinazione di stati dei suoi neuroni costituenti. (L'esempio continua nella sezione “l'informazione nella società umana”). Accumulando informazioni, il cervello crea sulla sua struttura un modello informativo connesso del mondo circostante. Nella natura vivente, una caratteristica importante per un organismo che riceve informazioni è la sua disponibilità. La quantità di informazioni che il sistema nervoso umano è in grado di inviare al cervello durante la lettura di testi è di circa 1 bit ogni 1/16 di s.

L'informazione è

Lo studio degli organismi è complicato dalla loro complessità. L'astrazione della struttura come insieme matematico, accettabile per gli oggetti inanimati, è difficilmente accettabile per un organismo vivente, perché per creare un modello astratto più o meno adeguato di un organismo è necessario tenere conto di tutti gli elementi gerarchici livelli della sua struttura. Pertanto, è difficile introdurre una misura della quantità di informazioni. È molto difficile determinare le connessioni tra i componenti della struttura. Se si sa quale organo è la fonte dell'informazione, qual è il segnale e qual è il ricevitore?

Prima dell’avvento dei computer, la biologia, che si occupa dello studio degli organismi viventi, utilizzava solo metodi qualitativi, cioè modelli descrittivi. In un modello qualitativo è quasi impossibile tenere conto delle connessioni informative tra i componenti della struttura. La tecnologia informatica elettronica ha permesso di applicare nuovi metodi nella ricerca biologica, in particolare il metodo di modellazione della macchina, che prevede una descrizione matematica di fenomeni e processi noti che si verificano nel corpo, aggiungendo ad essi ipotesi su alcuni processi sconosciuti e calcolando il possibile comportamento modelli dell'organismo. Le opzioni risultanti vengono confrontate con il comportamento reale dell'organismo, che consente di determinare la verità o la falsità delle ipotesi avanzate. Tali modelli possono anche tenere conto dell’interazione delle informazioni. I processi informativi che assicurano l’esistenza della vita stessa sono estremamente complessi. E sebbene sia intuitivamente chiaro che questa proprietà è direttamente correlata alla formazione, conservazione e trasmissione di informazioni complete sulla struttura dell'organismo, per qualche tempo una descrizione astratta di questo fenomeno è sembrata impossibile. Tuttavia, i processi informativi che garantiscono l'esistenza di questa proprietà sono stati parzialmente rivelati attraverso la decifrazione del codice genetico e la lettura dei genomi di vari organismi.

L'informazione nella società umana

Lo sviluppo della materia nel processo di movimento è diretto a complicare la struttura degli oggetti materiali. Una delle strutture più complesse è il cervello umano. Finora, questa è l'unica struttura a noi nota che possiede una proprietà che l'uomo stesso chiama coscienza. Parlando di informazioni, noi, come esseri pensanti, intendiamo a priori che l'informazione, oltre alla sua presenza sotto forma di segnali che riceviamo, ha anche un significato. Formando nella sua mente un modello del mondo circostante come un insieme interconnesso di modelli dei suoi oggetti e processi, una persona utilizza concetti semantici piuttosto che informazioni. Il significato è l'essenza di ogni fenomeno che non coincide con se stesso e lo collega al contesto più ampio della realtà. La parola stessa indica direttamente che il contenuto semantico dell'informazione può essere formato solo pensando ai destinatari dell'informazione. Nella società umana, l'importanza decisiva non è l'informazione in sé, ma il suo contenuto semantico.

Esempio (continua). Avendo sperimentato una tale sensazione, una persona assegna all'oggetto il concetto di "pomodoro" e il suo stato al concetto di "colore rosso". Inoltre, la sua coscienza fissa la connessione: “pomodoro” - “rosso”. Questo è il significato del segnale ricevuto. (L'esempio continua di seguito in questa sezione). La capacità del cervello di creare concetti significativi e connessioni tra loro è la base della coscienza. La coscienza può essere considerata come un modello semantico autosviluppante del mondo circostante. Il significato non è informazione. Le informazioni esistono solo su un supporto tangibile. La coscienza umana è considerata immateriale. Il significato esiste nella mente umana sotto forma di parole, immagini e sensazioni. Una persona può pronunciare le parole non solo ad alta voce, ma anche "a se stessa". Può anche creare (o ricordare) immagini e sensazioni “nella sua mente”. Tuttavia, può recuperare informazioni corrispondenti a questo significato parlando o scrivendo parole.

L'informazione è

Esempio (continua). Se le parole "pomodoro" e "rosso" sono il significato dei concetti, allora dov'è l'informazione? le informazioni sono contenute nel cervello sotto forma di determinati stati dei suoi neuroni. È anche contenuto nel testo stampato composto da queste parole e quando si codificano le lettere con un codice binario a tre bit, la sua quantità è di 120 bit. Se dici le parole ad alta voce, ci saranno molte più informazioni, ma il significato rimarrà lo stesso. L’immagine visiva trasporta la maggior quantità di informazioni. Ciò si riflette anche nel folklore: "è meglio vedere una volta che ascoltare cento volte". L'informazione così ripristinata è chiamata informazione semantica, poiché codifica il significato di alcune informazioni primarie (semantica). Avendo ascoltato (o visto) una frase pronunciata (o scritta) in una lingua che una persona non conosce, riceve informazioni, ma non può determinarne il significato. Pertanto, per trasmettere il contenuto semantico delle informazioni, sono necessari alcuni accordi tra sorgente e destinatario sul contenuto semantico dei segnali, ad es. parole Come accordi può essere raggiunto attraverso la comunicazione. La comunicazione è una delle condizioni più importanti per l’esistenza della società umana.

Nel mondo moderno, l'informazione è una delle risorse più importanti e, allo stesso tempo, una delle forze trainanti nello sviluppo della società umana. I processi di informazione che avvengono nel mondo materiale, nella natura vivente e nella società umana sono studiati (o almeno presi in considerazione) da tutte le discipline scientifiche, dalla filosofia al marketing. La crescente complessità dei problemi della ricerca scientifica ha portato alla necessità di attrarre grandi team di scienziati di diverse specialità per risolverli. Pertanto, quasi tutte le teorie discusse di seguito sono interdisciplinari. Storicamente, due rami complessi della scienza – la cibernetica e l’informatica – sono impegnati nello studio dell’informazione stessa.

La cibernetica moderna è multidisciplinare industria scienza che studia sistemi altamente complessi, come:

Società umana (cibernetica sociale);

Economia (cibernetica economica);

Organismo vivente (cibernetica biologica);

Il cervello umano e la sua funzione è la coscienza (intelligenza artificiale).

L'informatica, nata come scienza a metà del secolo scorso, si è separata dalla cibernetica ed è impegnata nella ricerca nel campo dei metodi per ottenere, archiviare, trasmettere ed elaborare informazioni semantiche. Entrambi industria utilizzare diverse teorie scientifiche sottostanti. Questi includono la teoria dell'informazione e le sue sezioni: teoria dei codici, teoria degli algoritmi e teoria degli automi. La ricerca sul contenuto semantico dell'informazione si basa su un insieme di teorie scientifiche sotto il nome generale di semiotica.La teoria dell'informazione è una teoria complessa, principalmente matematica, che include la descrizione e la valutazione dei metodi per recuperare, trasmettere, archiviare e classificare le informazioni. Considera i media dell'informazione come elementi di un insieme astratto (matematico) e le interazioni tra i media come un modo per organizzare gli elementi in questo insieme. Questo approccio consente di descrivere formalmente il codice informativo, ovvero di definire un codice astratto e studiarlo utilizzando metodi matematici. Per questi studi utilizza metodi di teoria della probabilità, statistica matematica, algebra lineare, teoria dei giochi e altre teorie matematiche.

Le basi di questa teoria furono gettate dallo scienziato americano E. Hartley nel 1928, che determinò la misura della quantità di informazioni per determinati problemi di comunicazione. Successivamente, la teoria fu sviluppata in modo significativo dallo scienziato americano K. Shannon, dagli scienziati russi A.N. Kolmogorov, V.M. Glushkov e altri. La moderna teoria dell'informazione comprende sezioni come la teoria dei codici, la teoria degli algoritmi, la teoria degli automi digitali (vedi sotto) e alcune altre. Esistono anche teorie alternative dell'informazione, ad esempio la "teoria dell'informazione qualitativa", proposta dal polacco scienziato M. Mazur.. Ogni persona ha familiarità con il concetto di algoritmo, senza nemmeno saperlo. Ecco un esempio di algoritmo informale: “Taglia i pomodori a cerchi o a fette. Metteteci dentro la cipolla tritata, versate l'olio vegetale, quindi cospargete con il peperoncino tritato finemente e mescolate. Prima di mangiare, cospargere di sale, mettere in un'insalatiera e guarnire con il prezzemolo. (Insalata di pomodoro).

Le prime regole per risolvere i problemi aritmetici nella storia dell'umanità furono sviluppate da uno dei famosi scienziati dell'antichità, Al-Khorezmi, nel IX secolo d.C. In suo onore, le regole formalizzate per raggiungere qualsiasi obiettivo sono chiamate algoritmi. L'oggetto della teoria degli algoritmi è trovare metodi per costruire e valutare algoritmi computazionali e di controllo efficaci (inclusi universali) per l'elaborazione delle informazioni. Per comprovare tali metodi, la teoria degli algoritmi utilizza l'apparato matematico della teoria dell'informazione.Il moderno concetto scientifico di algoritmi come metodi di elaborazione delle informazioni è stato introdotto nei lavori di E. Post e A. Turing negli anni '20 del XX secolo (Turing Macchina). Gli scienziati russi A. Markov (Markov's Normal Algorithm) e A. Kolmogorov hanno dato un grande contributo allo sviluppo della teoria degli algoritmi.La teoria degli automi è una branca della cibernetica teorica che studia modelli matematici di dispositivi realmente esistenti o fondamentalmente possibili che elaborano informazioni discrete in momenti discreti nel tempo.

Il concetto di automa è nato nella teoria degli algoritmi. Se esistono algoritmi universali per risolvere problemi computazionali, allora devono esistere anche dispositivi (anche se astratti) per implementare tali algoritmi. In realtà, una macchina di Turing astratta, considerata nella teoria degli algoritmi, è allo stesso tempo un automa definito in modo informale. La giustificazione teorica per la costruzione di tali dispositivi è oggetto della teoria degli automi, che utilizza l'apparato delle teorie matematiche: algebra, logica matematica, analisi combinatoria, teoria dei grafi, teoria della probabilità, ecc. , è la principale base teorica per la creazione di computer elettronici e sistemi di controllo automatizzati.La semiotica è un complesso di teorie scientifiche che studiano le proprietà dei sistemi di segni. I risultati più significativi sono stati raggiunti nel ramo della semiotica: la semantica. L'oggetto della ricerca semantica è il contenuto semantico delle informazioni.

Un sistema di segni è considerato un sistema di oggetti concreti o astratti (segni, parole), a ciascuno dei quali è associato in un certo modo un determinato significato. In teoria, è stato dimostrato che possono esserci due confronti di questo tipo. Il primo tipo di corrispondenza determina direttamente l'oggetto materiale che questa parola denota ed è chiamato denotazione (o, in alcune opere, designato). Il secondo tipo di corrispondenza determina il significato di un segno (parola) e si chiama concetto. Allo stesso tempo, vengono studiate proprietà di confronti come "significato", "verità", "definibilità", "seguente", "interpretazione", ecc .. Per la ricerca viene utilizzato l'apparato della logica matematica e della linguistica matematica. della semantica, delineata da G. V. Leibniz e F de Saussure nel XIX secolo, formulata e sviluppata da C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), ecc. Il risultato principale della teoria è la creazione di un apparato di analisi semantica che consente di rappresentare il significato di un testo in un linguaggio naturale sotto forma di una registrazione in un linguaggio semantico (semantico) formalizzato.L'analisi semantica è la base per la creazione di dispositivi (programmi) per la traduzione automatica da una lingua naturale all'altra.

Le informazioni vengono archiviate trasferendole su alcuni supporti fisici. Le informazioni semantiche registrate su un supporto di memorizzazione tangibile sono chiamate documento. L'umanità ha imparato a memorizzare le informazioni molto tempo fa. Le forme più antiche di memorizzazione delle informazioni utilizzavano la disposizione degli oggetti: conchiglie e pietre sulla sabbia, nodi su una corda. Uno sviluppo significativo di questi metodi fu la scrittura: la rappresentazione grafica di simboli su pietra, argilla, papiro e carta. Di grande importanza nello sviluppo di questa direzione è stata invenzione stampa di libri. Nel corso della sua storia, l'umanità ha accumulato un'enorme quantità di informazioni in biblioteche, archivi, periodici e altri documenti scritti.

Attualmente ha acquisito particolare importanza la memorizzazione di informazioni sotto forma di sequenze di caratteri binari. Per implementare questi metodi, vengono utilizzati una varietà di dispositivi di archiviazione. Sono il collegamento centrale dei sistemi di archiviazione delle informazioni. Oltre a questi, tali sistemi utilizzano mezzi per la ricerca di informazioni (motore di ricerca), mezzi per ottenere informazioni (sistemi di informazione e di riferimento) e mezzi per visualizzare informazioni (dispositivo di output). Formati in base allo scopo delle informazioni, tali sistemi informativi costituiscono banche dati, banche dati e basi di conoscenza.

Il trasferimento dell'informazione semantica è il processo del suo trasferimento spaziale dalla sorgente al destinatario (destinatario). L'uomo ha imparato a trasmettere e ricevere informazioni ancor prima che a memorizzarle. La parola è un metodo di trasmissione che i nostri lontani antenati usavano nel contatto diretto (conversazione) - lo usiamo ancora adesso. Per trasmettere informazioni su lunghe distanze è necessario utilizzare processi informativi molto più complessi: per eseguire tale processo, le informazioni devono essere formattate (presentate) in qualche modo. Per presentare le informazioni vengono utilizzati vari sistemi di segni: insiemi di simboli semantici predeterminati: oggetti, immagini, parole scritte o stampate del linguaggio naturale. Le informazioni semantiche su qualsiasi oggetto, fenomeno o processo presentato con il loro aiuto sono chiamate messaggio.

Ovviamente, per trasmettere un messaggio a distanza, le informazioni devono essere trasferite su qualche tipo di supporto mobile. I trasportatori possono spostarsi nello spazio utilizzando veicoli, come accade con le lettere inviate per posta. Questo metodo garantisce la completa affidabilità della trasmissione delle informazioni, poiché il destinatario riceve il messaggio originale, ma richiede molto tempo per la trasmissione. Dalla metà del 19 ° secolo, i metodi di trasmissione delle informazioni si sono diffusi utilizzando un vettore di informazioni che si propaga naturalmente: vibrazioni elettromagnetiche (vibrazioni elettriche, onde radio, luce). L’implementazione di questi metodi richiede:

Trasferimento preliminare delle informazioni contenute in un messaggio a un mezzo - codifica;

Garantire la trasmissione del segnale così ricevuto al destinatario tramite uno speciale canale di comunicazione;

Conversione inversa del codice del segnale in un codice del messaggio: decodifica.

L'informazione è

L'uso dei mezzi elettromagnetici rende la consegna di un messaggio al destinatario quasi istantanea, ma richiede misure aggiuntive per garantire la qualità (affidabilità e accuratezza) delle informazioni trasmesse, poiché i canali di comunicazione reali sono soggetti a interferenze naturali e artificiali. I dispositivi che implementano il processo di trasferimento dei dati formano sistemi di comunicazione. A seconda del metodo di presentazione delle informazioni, i sistemi di comunicazione possono essere suddivisi in segni (, telefax), suono (), video e sistemi combinati (televisione). Il sistema di comunicazione più sviluppato ai nostri tempi è Internet.

Elaborazione dati

Poiché l’informazione non è materiale, la sua elaborazione comporta varie trasformazioni. I processi di elaborazione comprendono qualsiasi trasferimento di informazioni da un supporto a un altro supporto. Le informazioni destinate al trattamento sono chiamate dati. Il tipo principale di elaborazione delle informazioni primarie ricevute da vari dispositivi è la trasformazione in una forma che ne garantisca la percezione da parte dei sensi umani. Pertanto, le fotografie dello spazio ottenute nei raggi X vengono convertite in normali fotografie a colori utilizzando speciali convertitori di spettro e materiali fotografici. I dispositivi per la visione notturna convertono l'immagine ottenuta dai raggi infrarossi (termici) in un'immagine nel campo del visibile. Per alcune attività di comunicazione e controllo è necessaria la conversione delle informazioni analogiche. A questo scopo vengono utilizzati convertitori di segnale analogico-digitale e digitale-analogico.

Il tipo più importante di elaborazione delle informazioni semantiche è determinare il significato (contenuto) contenuto in un determinato messaggio. A differenza delle informazioni semantiche primarie, non ne ha statistico caratteristiche, cioè una misura quantitativa: o c'è un significato o non c'è. E a quanto ammonta, se esiste, è impossibile stabilirlo. Il significato contenuto nel messaggio è descritto in un linguaggio artificiale che riflette le connessioni semantiche tra le parole del testo di partenza. Un dizionario di tale lingua, chiamato thesaurus, si trova nel destinatario del messaggio. Il significato delle parole e delle frasi in un messaggio viene determinato assegnandole a determinati gruppi di parole o frasi, il cui significato è già stato stabilito. Il thesaurus, quindi, consente di stabilire il significato del messaggio e, allo stesso tempo, si riempie di nuovi concetti semantici. Il tipo descritto di elaborazione delle informazioni viene utilizzato nei sistemi di recupero delle informazioni e nei sistemi di traduzione automatica.

Uno dei tipi più diffusi di elaborazione delle informazioni è la soluzione di problemi computazionali e di controllo automatico tramite computer. L’elaborazione delle informazioni viene sempre effettuata per qualche scopo. Per raggiungerlo, è necessario conoscere l'ordine delle azioni sulle informazioni che portano a un determinato obiettivo. Questa procedura è chiamata algoritmo. Oltre all'algoritmo stesso, è necessario anche un dispositivo che implementi questo algoritmo. Nelle teorie scientifiche, un tale dispositivo è chiamato automa.Va notato che la caratteristica più importante dell'informazione è il fatto che, a causa dell'asimmetria dell'interazione delle informazioni, durante l'elaborazione delle informazioni compaiono nuove informazioni, ma le informazioni originali non vanno perse.

Informazioni analogiche e digitali

Il suono è costituito dalle vibrazioni delle onde in qualsiasi mezzo, ad esempio nell'aria. Quando una persona parla, le vibrazioni dei legamenti della gola vengono convertite in vibrazioni ondulatorie dell'aria. Se consideriamo il suono non come un'onda, ma come vibrazioni in un punto, queste vibrazioni possono essere rappresentate come variazioni della pressione dell'aria nel tempo. Utilizzando un microfono, le variazioni di pressione possono essere rilevate e convertite in tensione elettrica. La pressione dell'aria viene convertita in fluttuazioni di tensione elettrica.

Tale trasformazione può avvenire secondo varie leggi, molto spesso la trasformazione avviene secondo una legge lineare. Ad esempio, in questo modo:

U(t)=K(P(t)-P_0),

dove U(t) è la tensione elettrica, P(t) è la pressione atmosferica, P_0 è la pressione atmosferica media e K è il fattore di conversione.

Sia la tensione elettrica che la pressione dell'aria sono funzioni continue nel tempo. Le funzioni U(t) e P(t) forniscono informazioni sulle vibrazioni dei legamenti della gola. Queste funzioni sono continue e tali informazioni sono chiamate analogiche.La musica è un caso speciale di suono e può anche essere rappresentata come una sorta di funzione del tempo. Sarà una rappresentazione analogica della musica. Ma la musica viene scritta anche sotto forma di note. Ogni nota ha una durata che è un multiplo di una durata predeterminata e un'altezza (do, re, mi, fa, salt, ecc.). Se questi dati vengono convertiti in numeri, otteniamo una rappresentazione digitale della musica.

Anche il linguaggio umano è un caso speciale di suono. Può anche essere rappresentato in forma analogica. Ma proprio come la musica può essere scomposta in note, il discorso può essere scomposto in lettere. Se a ciascuna lettera viene assegnato il proprio insieme di numeri, otterremo una rappresentazione digitale del parlato. La differenza tra l'informazione analogica e quella digitale è che l'informazione analogica è continua, mentre l'informazione digitale è discreta. La trasformazione dell'informazione da un tipo all'altro , a seconda del tipo di trasformazione, viene chiamata diversamente: semplicemente "conversione", come conversione da digitale ad analogico, o conversione da analogico a digitale; le trasformazioni complesse sono chiamate "codifica", ad esempio codifica delta, codifica entropica; La conversione tra caratteristiche come ampiezza, frequenza o fase è chiamata "modulazione", ad esempio modulazione di ampiezza-frequenza, modulazione di larghezza di impulso.

L'informazione è

In genere, le conversioni analogiche sono abbastanza semplici e possono essere facilmente gestite da vari dispositivi inventati dall'uomo. Un registratore converte la magnetizzazione sulla pellicola in suono, un registratore vocale converte il suono in magnetizzazione sulla pellicola, una videocamera converte la luce in magnetizzazione sulla pellicola, un oscilloscopio converte la tensione elettrica o la corrente in un'immagine, ecc. Convertire le informazioni analogiche in digitali è molto più difficile. La macchina non riesce ad effettuare alcune trasformazioni o ci riesce con grande difficoltà. Ad esempio, la conversione del parlato in testo o la conversione della registrazione di un concerto in spartiti e persino una rappresentazione intrinsecamente digitale: è molto difficile per una macchina convertire il testo su carta nello stesso testo nella memoria del computer.

L'informazione è

Perché allora utilizzare la rappresentazione digitale delle informazioni se sono così complesse? Il vantaggio principale delle informazioni digitali rispetto a quelle analogiche è l’immunità al rumore. Cioè, nel processo di copia delle informazioni, le informazioni digitali vengono copiate così come sono, possono essere copiate quasi un numero infinito di volte, mentre le informazioni analogiche diventano rumorose durante il processo di copia e la loro qualità si deteriora. In genere, le informazioni analogiche possono essere copiate non più di tre volte. Se si dispone di un registratore audio a due cassette, è possibile eseguire il seguente esperimento: provare a riscrivere la stessa canzone più volte da cassetta a cassetta; dopo solo alcune ri-registrazioni noterai quanto la qualità della registrazione è peggiorata. Le informazioni sulla cassetta sono memorizzate in forma analogica. Puoi riscrivere la musica in formato mp3 tutte le volte che vuoi e la qualità della musica non si deteriorerà. Le informazioni in un file mp3 vengono archiviate digitalmente.

Quantità di informazioni

Una persona o qualche altro destinatario di informazioni, dopo aver ricevuto un'informazione, risolve alcune incertezze. Prendiamo come esempio lo stesso albero. Quando abbiamo visto l’albero, abbiamo risolto una serie di incertezze. Abbiamo imparato l'altezza dell'albero, il tipo di albero, la densità del fogliame, il colore delle foglie e, se era un albero da frutto, poi abbiamo visto i frutti su di esso, quanto erano maturi, ecc. Prima di guardare l'albero non sapevamo tutto questo, dopo aver guardato l'albero abbiamo risolto l'incertezza: abbiamo ricevuto informazioni.

Se andiamo in un prato e lo osserviamo, otterremo un diverso tipo di informazione, quanto è grande il prato, quanto è alta l'erba e di che colore è l'erba. Se un biologo si reca in questo stesso prato, allora, tra le altre cose, potrà scoprire: quali varietà di erba crescono nel prato, che tipo di prato è, vedrà quali fiori sono sbocciati, quali sono in procinto di fiorire, se il prato è adatto al pascolo delle mucche, ecc. Cioè riceverà più informazioni di noi, poiché aveva più domande prima di guardare il prato, il biologo risolverà più incertezze.

L'informazione è

Più l'incertezza veniva risolta nel processo di ottenimento delle informazioni, più informazioni ricevevamo. Ma questa è una misura soggettiva della quantità di informazioni e vorremmo avere una misura oggettiva. Esiste una formula per calcolare la quantità di informazioni. Abbiamo una certa incertezza, e abbiamo N numero di casi di risoluzione dell'incertezza, e ogni caso ha una certa probabilità di risoluzione, quindi la quantità di informazioni ricevute può essere calcolata utilizzando la seguente formula che Shannon ci ha suggerito:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), dove

I - quantità di informazioni;

N - numero di risultati;

p_1, p_2,..., p_N sono le probabilità del risultato.

L'informazione è

La quantità di informazioni viene misurata in bit, un'abbreviazione della parola inglese BInary digiT, che significa cifra binaria.

Per eventi ugualmente probabili la formula può essere semplificata:

I = log_(2)N, dove

I - quantità di informazioni;

N è il numero di risultati.

Prendiamo, ad esempio, una moneta e gettiamola sul tavolo. Atterrerà testa o croce. Abbiamo 2 eventi ugualmente probabili. Dopo aver lanciato la moneta, abbiamo ricevuto log_(2)2=1 bit di informazione.

Proviamo a scoprire quante informazioni otteniamo dopo aver lanciato i dadi. Il cubo ha sei facce: sei eventi ugualmente probabili. Otteniamo: log_(2)6 circa 2.6. Dopo aver lanciato il dado sul tavolo, abbiamo ricevuto circa 2,6 bit di informazione.

Le probabilità di vedere un dinosauro marziano quando usciamo di casa sono una su dieci miliardi. Quante informazioni otterremo sul dinosauro marziano una volta usciti di casa?

Sinistra(((1 su (10^(10))) log_2(1 su (10^(10))) + sinistra(( 1 - (1 su (10^(10)))) destra) log_2 sinistra(( 1 - (1 su (10^(10))) ight)) ight) circa 3,4 cdot 10^(-9) bit.

Diciamo che abbiamo lanciato 8 monete. Abbiamo 2 ^ 8 opzioni di rilascio delle monete. Ciò significa che dopo aver lanciato le monete otterremo log_2(2^8)=8 bit di informazione.

Quando facciamo una domanda e abbiamo la stessa probabilità di ricevere una risposta “sì” o “no”, dopo aver risposto alla domanda riceviamo un po’ di informazione.

È sorprendente che se applichiamo la formula di Shannon all'informazione analogica, otteniamo una quantità infinita di informazioni. Ad esempio, la tensione in un punto di un circuito elettrico può assumere un valore altrettanto probabile compreso tra zero e un volt. Il numero di risultati che abbiamo è uguale all'infinito e, sostituendo questo valore nella formula per eventi ugualmente probabili, otteniamo l'infinito, una quantità infinita di informazioni.

Ora ti mostrerò come codificare “guerra e pace” utilizzando un solo segno su qualsiasi asta di metallo. Codifichiamo tutte le lettere e i caratteri trovati in " guerra e pace”, usando numeri a due cifre, dovrebbero bastarci. Ad esempio, daremo alla lettera “A” il codice “00”, alla lettera “B” il codice “01” e così via, codificheremo segni di punteggiatura, lettere latine e numeri. Ricodifichiamo" guerra and the world" utilizzando questo codice e ottieni un numero lungo, ad esempio 70123856383901874..., aggiungi una virgola e uno zero davanti a questo numero (0.70123856383901874...). Il risultato è un numero da zero a uno. Mettiamo rischio su un'asta di metallo in modo che il rapporto tra il lato sinistro dell'asta e la lunghezza di questa asta sia uguale esattamente al nostro numero. Quindi, se all'improvviso vogliamo leggere “guerra e pace”, misureremo semplicemente il lato sinistro dell'asta rischi e la lunghezza dell'intera asta, dividere un numero per un altro, ottenere un numero e ricodificarlo in lettere (“00” in “A”, “01” in “B”, ecc.).

L'informazione è

In realtà non potremo farlo, poiché non potremo determinare le lunghezze con precisione infinita. Alcuni problemi di ingegneria ci impediscono di aumentare la precisione delle misurazioni e la fisica quantistica ci mostra che dopo un certo limite le leggi quantistiche interferiranno già con noi. Intuitivamente comprendiamo che minore è la precisione della misurazione, meno informazioni riceviamo, mentre maggiore è la precisione della misurazione, più informazioni riceviamo. La formula di Shannon non è adatta per misurare la quantità di informazioni analogiche, ma esistono altri metodi per questo, discussi in Teoria dell'informazione. Nella tecnologia informatica, un bit corrisponde allo stato fisico del supporto informazioni: magnetizzato - non magnetizzato, c'è un buco - nessun buco, carico - non carico, riflette la luce - non riflette la luce, alto potenziale elettrico - basso potenziale elettrico. In questo caso, uno stato è solitamente indicato con il numero 0 e l'altro con il numero 1. Qualsiasi informazione può essere codificata con una sequenza di bit: testo, immagine, suono, ecc.

Insieme al bit viene spesso utilizzato un valore chiamato byte, che solitamente corrisponde a 8 bit. E se un bit ti consente di scegliere un'opzione ugualmente probabile tra due possibili, allora un byte è 1 su 256 (2 ^ 8). Per misurare la quantità di informazioni, è anche comune utilizzare unità più grandi:

1 KB (un kilobyte) 210 byte = 1024 byte

1 MB (un megabyte) 210 KB = 1024 KB

1 GB (un gigabyte) 210 MB = 1024 MB

In realtà, i prefissi SI kilo-, mega-, giga- dovrebbero essere usati rispettivamente per i fattori 10^3, 10^6 e 10^9, ma storicamente c'è stata la pratica di utilizzare fattori con potenze di due.

Un bit di Shannon e un bit utilizzato nella tecnologia informatica sono gli stessi se le probabilità che uno zero o un uno appaiano in un bit del computer sono uguali. Se le probabilità non sono uguali, la quantità di informazioni secondo Shannon diminuisce, lo abbiamo visto nell'esempio del dinosauro marziano. La quantità di informazioni del computer fornisce una stima superiore della quantità di informazioni. La memoria volatile, dopo averla alimentata, viene solitamente inizializzata con un certo valore, ad esempio tutti uno o tutti zeri. È chiaro che dopo aver acceso la memoria, non ci sono informazioni, poiché i valori nelle celle di memoria sono rigorosamente definiti, non c'è incertezza. La memoria può immagazzinare una certa quantità di informazioni, ma dopo che viene alimentata, non contiene più informazioni.

La disinformazione è un'informazione deliberatamente falsa fornita a un nemico o a un partner commerciale per una condotta più efficace delle operazioni militari, la cooperazione, il controllo della fuga di informazioni e la direzione della loro fuga, l'identificazione di potenziali clienti del mercato nero. Anche la disinformazione (anche disinformata) è il processo di manipolazione dell'informazione stessa, come ad esempio: ingannare qualcuno fornendo informazioni incomplete o complete ma non più necessarie, distorcere il contesto, distorcere parte dell'informazione.

L'obiettivo di tale influenza è sempre lo stesso: l'avversario deve agire secondo le esigenze del manipolatore. L'azione del bersaglio contro cui è diretta la disinformazione può consistere nel prendere una decisione di cui il manipolatore ha bisogno o nel rifiutarsi di prendere una decisione che è sfavorevole per il manipolatore. Ma in ogni caso, l'obiettivo finale è l'azione che verrà intrapresa dall'avversario.

La disinformazione, quindi, lo è Prodotto attività umana, un tentativo di creare una falsa impressione e, di conseguenza, spingere alle azioni e/o all'inazione desiderate.

L'informazione è

Tipi di disinformazione:

Ingannare una persona specifica o un gruppo di persone (inclusa un'intera nazione);

Manipolazione (le azioni di una persona o di un gruppo di persone);

Creare l’opinione pubblica riguardo a un problema o a un oggetto.

L'informazione è

La falsa dichiarazione non è altro che un vero e proprio inganno, la fornitura di informazioni false. La manipolazione è un metodo di influenza volto direttamente a cambiare la direzione dell’attività delle persone. Si distinguono i seguenti livelli di manipolazione:

Rafforzare i valori (idee, atteggiamenti) che esistono nella mente delle persone e sono vantaggiosi per il manipolatore;

Parziale cambiamento di opinione su un particolare evento o circostanza;

Un cambiamento radicale negli atteggiamenti di vita.

Creare l'opinione pubblica è la formazione nella società di un certo atteggiamento nei confronti di un problema scelto.

Fonti e collegamenti

ru.wikipedia.org - enciclopedia libera Wikipedia

youtube.com - Hosting di video YouTube

images.yandex.ua - Immagini Yandex

google.com.ua - Immagini di Google

ru.wikibooks.org - Wikibooks

inf1.info - Pianeta Informatica

old.russ.ru - Rivista russa

shkolo.ru - Directory delle informazioni

5byte.ru - Sito web di informatica

ssti.ru - Tecnologie dell'informazione

klgtu.ru - Informatica

informatika.sch880.ru - sito web dell'insegnante di informatica O.V. Podvintseva

Enciclopedia degli studi culturali

Il concetto base della cibernetica, allo stesso modo, economico I. il concetto base della cibernetica economica. Esistono molte definizioni di questo termine, sono complesse e contraddittorie. Il motivo, ovviamente, è che I. si occupa del fenomeno... ... Dizionario economico-matematico

informazione- Dati significativi. [GOST R ISO 9000 2008] informazione Qualsiasi tipo di conoscenza su oggetti, fatti, concetti, ecc. di un'area problematica che viene scambiata dagli utenti di un sistema informativo [GOST 34.320 96] informazione Informazioni (messaggi, dati)… … Guida del traduttore tecnico

informazione- e, f. informazioni f., piano informacyia, lat. spiegazione delle informazioni, presentazione. Messaggio, informazioni su qualcosa. BAS 1. Proteggi ovunque e in ogni cosa gli interessi dei monarchi con tutta fedeltà, .. di tutto gli fornisco informazioni dirette a Shvymers... ... Dizionario storico dei gallicismi della lingua russa

informazione- dati, fonti, informazioni; notifica, messaggio, notifica, avviso; classifica, catamnesi, notizie, riferimento, materiale, rapporto, comunicato stampa Dizionario dei sinonimi russi. informazioni vedi informazioni Dizionario dei sinonimi della lingua russa... ... Dizionario dei sinonimi

INFORMAZIONE- (informazioni) Dati a disposizione di individui, aziende o governi quando prendono decisioni economiche. In linea di principio, la quantità di informazioni è infinita; in pratica, anche organizzazioni grandi e sofisticate come quelle centrali... ... Dizionario economico

- (dati) Informazioni elaborate, accumulate o emesse da un computer. Attività commerciale. Dizionario. M.: INFRA M, Casa editrice Ves Mir. Graham Betts, Barry Brindley, S. Williams e altri Redattore generale: Ph.D. Osadchaya I.M.. 1998. Informazioni ... Dizionario dei termini commerciali

INFORMAZIONE- INFORMAZIONE, informazione, donne. (libro, ufficiale). 1. solo unità Azione ai sensi del cap. far sapere. Le informazioni sono presentate al livello corretto. 2. Un messaggio che informa sullo stato delle cose o sulle attività di qualcuno, informazioni su qualcosa. Dare... ... Dizionario esplicativo di Ushakov

INFORMAZIONE- (dal latino informatio familiarizzazione, spiegazione) concetto utilizzato in filosofia fin dall'antichità e recentemente ha ricevuto un significato nuovo e più ampio grazie allo sviluppo della cibernetica, dove funge da una delle categorie centrali... ... Enciclopedia filosofica

INFORMAZIONE- (dal lat. informatio spiegazione, consapevolezza) qualsiasi informazione e dato che riflette le proprietà degli oggetti in ambito naturale (biologico, fisico, ecc.), sociale e tecnico. sistemi e trasmessi tramite suono, grafica (compreso lo scritto) o altri mezzi senza... ... Enciclopedia fisica

O in altro modo (utilizzando segnali convenzionali, mezzi tecnici, ecc.); dalla metà del 20 ° secolo, il termine "informazione" è diventato un concetto scientifico generale, compreso lo scambio di informazioni tra persone, una persona e un automa, un automa e un automa; scambio di segnali nel mondo animale e vegetale; trasferimento di caratteristiche da cellula a cellula, da organismo a organismo (ad esempio, informazioni genetiche); uno dei concetti base della cibernetica.

L'essenza e i confini del fenomeno

La parola "informazione" deriva dal lat. informatio, il che significa informazioni, chiarimenti, presentazioni. Il concetto di informazione era considerato dai filosofi antichi.

Storicamente, due rami complessi della scienza sono coinvolti nello studio dell'informazione stessa: la cibernetica e l'informatica.

L'informatica, nata come scienza a metà del XX secolo, si è separata dalla cibernetica ed è impegnata nella ricerca nel campo dei metodi per ottenere, archiviare, trasmettere ed elaborare informazioni semantiche.

La ricerca sul contenuto semantico dell'informazione si basa su un insieme di teorie scientifiche sotto il nome generale di semiotica [ ] .

Ma se, ad esempio, conduciamo un'analisi anche superficiale del contenuto dei concetti attributivi e funzionali più comuni in relazione all'informazione oggi, diventa chiaro che entrambi questi concetti si basano in ultima analisi sulla proprietà oggettiva della materia, stabilita nell'antichità. 19° secolo e indicato con la categoria filosofica “riflessione”. Tuttavia, entrambi i concetti non prestano sufficiente attenzione allo studio della realtà ovvia, che si manifesta nel fatto che l'informazione nelle forme in cui esiste oggi è un prodotto della coscienza umana, che a sua volta è un prodotto della forma più alta ( delle forme conosciute) della materia.

In altre parole, i sostenitori di entrambi i concetti, ignorando l’uomo, ignorando la natura della coscienza umana, attribuiscono immediatamente l’informazione (un prodotto della coscienza) a una proprietà della materia e la chiamano immediatamente “attributo della materia”. Come risultato di questo errore, entrambi i concetti non possono fornirci una definizione rigorosa di informazione come concetto, poiché i concetti umani sono pieni di contenuto come risultato della comunicazione umana con la realtà oggettiva, e non come risultato di operazioni, seppur sofisticate, esteriormente convincente, plausibile nelle conclusioni, con altri concetti. Anche i tentativi di presentare le informazioni come categorie sono destinati al fallimento. Basti tenere presente che la pratica umana negli ultimi decenni ha modificato così rapidamente le forme e il contenuto dei concetti, nonché le sue idee e atteggiamenti nei confronti di ciò che oggi viene comunemente chiamato “informazione”, che la natura, l’essenza dell’informazione e , naturalmente, il contenuto di questo concetto (se ancora lo consideriamo un concetto) è cambiato notevolmente nel tempo.

Classificazione delle informazioni

Informazione(dal latino informatio, spiegazione, presentazione, consapevolezza) è un concetto scientifico generale associato alle proprietà oggettive della materia e al loro riflesso nella coscienza umana.

Nella scienza moderna vengono considerati due tipi di informazioni.

Informazioni oggettive (primarie).- la proprietà degli oggetti materiali e dei fenomeni (processi) di generare una varietà di stati, che attraverso le interazioni (interazioni fondamentali) vengono trasmessi ad altri oggetti e impressi nella loro struttura (vedi V.M. Glushkov, N.M. Amosov e altri. "Enciclopedia della cibernetica" " Kiev, 1975)

Informazioni soggettive (semantiche, semantiche, secondarie).– il contenuto semantico delle informazioni oggettive su oggetti e processi del mondo materiale, formato dalla coscienza umana con l'aiuto di immagini semantiche (parole, immagini e sensazioni) e registrato su un supporto materiale. Una persona è caratterizzata da una percezione soggettiva delle informazioni attraverso un certo insieme delle sue proprietà: importanza, affidabilità, tempestività, accessibilità, "più o meno", ecc. L'uso dei termini “più informazione” o “meno informazione” implica qualche possibilità di misurazione (o almeno di correlazione quantitativa). Con la percezione soggettiva, misurare le informazioni è possibile solo stabilendo una scala ordinale soggettiva per valutare “più o meno”. Quando si misura oggettivamente la quantità di informazioni, si dovrebbe abbandonare deliberatamente la sua percezione dal punto di vista delle proprietà soggettive, esempi delle quali sono elencati sopra. Inoltre, è possibile che non tutte le informazioni abbiano una quantità oggettivamente misurabile.

Nel senso quotidiano, l'informazione è informazione sul mondo circostante e sui processi che si verificano in esso, percepiti da una persona o da un dispositivo speciale (vedi S.I. Ozhegov, "Dizionario della lingua russa." Mosca, 1990). Nella comprensione quotidiana più semplice, il termine “informazione” è solitamente associato ad alcune informazioni, dati, conoscenze, ecc. Le informazioni vengono trasmesse sotto forma di messaggi che determinano la forma e la presentazione delle informazioni trasmesse. Esempi di messaggi sono un brano musicale; Programma televisivo; comandi del controllore del traffico a un incrocio; testo stampato su una stampante; dati ottenuti come risultato del programma creato, ecc. Si presuppone che esista una “fonte di informazioni” e un “destinatario di informazioni”. Un messaggio da una fonte a un destinatario viene trasmesso attraverso un mezzo, che in questo caso è un “canale di comunicazione”. Pertanto, quando si trasmette un messaggio vocale, il canale di comunicazione può essere considerato l'aria in cui si propagano le onde sonore e, nel caso della trasmissione di un messaggio scritto (ad esempio, testo stampato su una stampante), il canale del messaggio può essere considerato un foglio di carta su cui è stampato il testo. Affinché un messaggio possa essere trasmesso dalla fonte al destinatario, è necessaria una sostanza materiale, un portatore di informazioni. Il messaggio trasmesso dal mezzo è un segnale. In generale, un segnale è un processo fisico che varia nel tempo. La caratteristica del processo utilizzata per rappresentare i messaggi è chiamata parametro del segnale. Nel caso in cui il parametro del segnale assume un numero finito di valori sequenziali nel tempo (tutti possono essere numerati), il segnale viene chiamato discreto e il messaggio trasmesso utilizzando tali segnali viene chiamato messaggio discreto. Se la sorgente produce un messaggio continuo (di conseguenza, il parametro del segnale è una funzione continua del tempo), l'informazione corrispondente viene chiamata continua. Esempi di messaggio discreto sono il testo di un libro, un messaggio continuo è il discorso umano trasmesso da un'onda sonora modulata; il parametro del segnale in quest'ultimo caso è la pressione creata da quest'onda nella posizione del ricevitore: l'orecchio umano. Un messaggio continuo può essere rappresentato da una funzione continua definita su un certo intervallo. Un messaggio continuo può essere convertito in un messaggio discreto (questa procedura è detta campionamento). Dall'insieme infinito di valori dei parametri del segnale, viene selezionato un certo numero, che può caratterizzare approssimativamente i valori rimanenti. Per fare ciò, il dominio di definizione della funzione viene diviso in segmenti di uguale lunghezza e su ciascuno di questi segmenti il ​​valore della funzione viene preso costante e uguale, ad esempio, al valore medio su questo segmento. Di conseguenza, otteniamo un insieme finito di numeri. Pertanto, qualsiasi messaggio continuo può essere rappresentato come discreto, in altre parole, una sequenza di caratteri di un qualche alfabeto. La capacità di campionare un segnale continuo con qualsiasi precisione desiderata (per aumentare la precisione è sufficiente ridurre il passo) è di fondamentale importanza dal punto di vista informatico. Un computer è una macchina digitale, cioè la rappresentazione interna delle informazioni in esso contenute è discreta. La discretizzazione delle informazioni in ingresso (se sono continue) le rende adatte all'elaborazione informatica.

Il concetto di “informazione” è uno dei concetti fondamentali nella scienza moderna in generale e basilare per l’informatica. L'informazione, insieme alla materia e all'energia, è considerata l'essenza più importante del mondo in cui viviamo. Tuttavia, se si decidesse di definire formalmente il concetto di “informazione”, sarebbe estremamente difficile farlo. Attualmente non esiste un’unica definizione di informazione come termine scientifico. Dal punto di vista di vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Secondo il concetto di K. Shannon, l’informazione è la rimozione dell’incertezza, cioè informazioni che dovrebbero rimuovere, in un modo o nell'altro, l'incertezza esistente nel consumatore prima di riceverlo ed espandere la sua comprensione dell'oggetto con informazioni utili.

Unità di quantità di informazione

Definire il concetto di “quantità di informazioni” è piuttosto difficile. Esistono due approcci principali per risolvere questo problema. Storicamente, sono sorti quasi contemporaneamente. Alla fine degli anni '40 del XX secolo, uno dei fondatori della cibernetica, il matematico americano Claude Shannon, sviluppò un approccio probabilistico per misurare la quantità di informazioni e il lavoro sulla creazione di computer portò all'approccio “volumetrico”.

Approccio probabilistico

Considera, ad esempio, l'esperienza di lanciare un dado equilibrato che ha N facce. I risultati di questo esperimento possono essere i seguenti: perdita di un volto con uno dei seguenti caratteri: 1, 2, ..., N.

Introduciamo in considerazione una quantità numerica che misura l'incertezza - entropia(denotiamolo N). Secondo la teoria sviluppata, in caso di perdita altrettanto probabile di ciascuno dei lati della quantità N E N interconnesso La formula di Hartley

Quando si introduce qualsiasi quantità, una domanda importante è cosa prendere come unità di misura. Ovviamente, H sarà uguale a uno a N= 2. In altre parole, per unità si intende la quantità di informazione associata alla conduzione di un esperimento consistente nell'ottenere uno di due risultati ugualmente probabili (un esempio di tale esperimento è il lancio di una moneta, in cui sono possibili due risultati: “teste”, “code”). Questa unità di informazione è chiamata “bit”.

Nel caso in cui le probabilità Pi i risultati dell'esperimento (nell'esempio sopra riportato, il lancio dei dadi) non sono gli stessi, esiste La formula di Shannon

Nel caso di equiprobabilità degli eventi, la formula di Shannon si trasforma in formula di Hartley.

Ad esempio, determineremo la quantità di informazioni associate all'aspetto di ciascun carattere nei messaggi scritti in russo. Partiremo dal presupposto che l'alfabeto russo sia composto da 33 lettere e uno spazio per separare le parole. Secondo la formula di Hartley

Tuttavia, nelle parole della lingua russa (così come nelle parole di altre lingue), lettere diverse compaiono spesso in modo diverso. Di seguito è riportata una tabella delle probabilità per la frequenza d'uso di vari caratteri dell'alfabeto russo, ottenuta sulla base dell'analisi di testi molto grandi.

Approccio al volume

Nel sistema numerico binario, i segni 0 e 1 sono chiamati bit (bit - dall'espressione inglese Binary digiTs - cifre binarie). In un computer, il bit è la più piccola unità di informazione possibile. La quantità di informazioni registrate in caratteri binari nella memoria del computer o su un supporto di memorizzazione esterno viene calcolata semplicemente dal numero di caratteri binari richiesti per tale registrazione. In questo caso, in particolare, un numero di bit non intero è impossibile (contrariamente all'approccio probabilistico).

Per facilità d'uso, sono state introdotte unità di quantità di informazioni più grandi dei bit. Pertanto, una parola binaria di otto caratteri contiene un byte di informazioni. 1024 byte formano un kilobyte (KB), 1024 kilobyte formano un megabyte (MB) e 1024 megabyte formano un gigabyte (GB).

La relazione tra quantità probabilistiche e volumetriche di informazioni è ambigua. Non tutti i testi scritti in simboli binari consentono di misurare il volume delle informazioni in senso probabilistico (cibernetico), ma certamente lo consentono in senso volumetrico. Inoltre, se un certo messaggio consente la misurabilità della quantità di informazione in entrambi i sensi, allora questa quantità non necessariamente coincide, e la quantità di informazione cibernetica non può essere maggiore di quella volumetrica.

Nell'informatica applicata la quantità di informazione è quasi sempre intesa in senso volumetrico.

Classificazione delle informazioni

Le informazioni possono essere suddivise in tipologie in base a diversi criteri.

Metodo di percezione: visivo - percepito dagli organi della vista. Uditivo: percepito dagli organi uditivi. Tattile: percepito dai recettori tattili. Olfattivo - percepito dai recettori olfattivi. Gustativo - percepito dalle papille gustative.

Forma di rappresentazione: testo - trasmesso sotto forma di simboli destinati a denotare lessemi della lingua. Numerico: sotto forma di numeri e segni che indicano operazioni matematiche. Grafico: sotto forma di immagini, oggetti, grafici. Suono: trasmissione orale o registrata di lessemi linguistici mediante mezzi uditivi.

Scopo: Messa: contiene informazioni banali e funziona con una serie di concetti comprensibili alla maggior parte della società. Speciale: contiene una serie specifica di concetti; quando utilizzata, vengono trasmesse informazioni che potrebbero non essere comprensibili alla maggior parte della società, ma che sono necessarie e comprensibili all'interno del ristretto gruppo sociale in cui vengono utilizzate queste informazioni. Personale: un insieme di informazioni su una persona che determina lo stato sociale e i tipi di interazioni sociali all'interno della popolazione.

Proprietà dell'informazione

Qualità delle informazioni- il grado di conformità con le esigenze dei consumatori. Le proprietà delle informazioni sono relative, poiché dipendono dalle esigenze del consumatore di informazioni.

Obiettività delle informazioni caratterizza la sua indipendenza dall'opinione o dalla coscienza di chiunque, nonché dai metodi per ottenerla. Più oggettiva è l'informazione alla quale le modalità di ottenimento e di elaborazione introducono un minore elemento di soggettività.

Le informazioni possono essere lette pieno, quando contiene un insieme minimo ma sufficiente di indicatori per prendere la decisione giusta. Sia le informazioni incomplete che quelle ridondanti riducono l’efficacia delle decisioni basate sulle informazioni.

Credibilità- l'accuratezza delle informazioni è fuori dubbio. Le informazioni oggettive sono sempre affidabili, ma le informazioni affidabili possono essere sia oggettive che soggettive. Le ragioni dell'inaffidabilità possono essere: distorsione deliberata (disinformazione); distorsione involontaria di una proprietà soggettiva; distorsione dovuta a interferenze; errori nella registrazione delle informazioni. In generale, l'attendibilità delle informazioni si ottiene: indicando l'ora in cui si sono verificati gli eventi di cui vengono trasmesse le informazioni; confronto di dati ottenuti da varie fonti; rilevamento tempestivo della disinformazione; escludendo informazioni distorte, ecc.

Adeguatezza- il grado di corrispondenza tra il significato dell'informazione effettivamente ricevuta e il suo contenuto atteso. Ad esempio, è stata posta la domanda: "Quante dita ha una persona sulla sua mano?" "Una persona ha cinque dita in una mano" è una risposta affidabile e adeguata, "Una persona ha due mani" è una risposta affidabile ma inadeguata.

Disponibilità di informazioni- una misura della possibilità di ottenere questa o quella informazione.

Rilevanza delle informazioni- questo è il grado di corrispondenza delle informazioni al momento attuale.

Emotività- la capacità delle informazioni di evocare emozioni diverse nelle persone. Questa proprietà dell'informazione viene utilizzata dai produttori di informazioni mediatiche. Più forti sono le emozioni evocate, maggiore è la probabilità di prestare attenzione e ricordare le informazioni.

Non importa quanto sia importante la misurazione delle informazioni, tutti i problemi associati a questo concetto non possono essere ridotti ad essa. Quando si analizzano informazioni di origine sociale (in senso lato), possono venire alla ribalta proprietà come verità, tempestività, valore, completezza, ecc. Non possono essere valutati in termini di "riduzione dell'incertezza" (approccio probabilistico) o di numero di simboli (approccio volume). Il passaggio al lato qualitativo delle informazioni ha dato origine ad altri approcci alla sua valutazione. Con l'approccio assiologico, si sforzano di partire dal valore, dal significato pratico delle informazioni, ad es. da caratteristiche qualitative significative nel sistema sociale. Nell'approccio semantico l'informazione viene considerata sia dal punto di vista della forma che del contenuto. In questo caso le informazioni sono collegate al thesaurus, cioè completezza di un insieme sistematico di dati sull’oggetto dell’informazione. Questi approcci non escludono l'analisi quantitativa, ma diventa significativamente più complessa e deve basarsi su moderni metodi di statistica matematica.

Concetto di informazione

Il concetto di informazione non può essere considerato soltanto un termine tecnico, interdisciplinare o addirittura sovradisciplinare. L’informazione è una categoria filosofica fondamentale. Le discussioni tra gli scienziati sugli aspetti filosofici dell'informazione hanno dimostrato in modo attendibile che l'informazione non è riducibile a nessuna di queste categorie. I concetti e le interpretazioni che sorgono lungo il percorso degli approcci dogmatici risultano troppo parziali, unilaterali e non coprono l'intera portata di questo concetto.

I tentativi di considerare la categoria dell'informazione dal punto di vista della questione principale della filosofia hanno portato all'emergere di due concetti opposti: funzionale e attributivo. Gli “attributisti” qualificano l’informazione come una proprietà di tutti gli oggetti materiali, cioè come attributo della materia. I “funzionalisti” associano le informazioni solo al funzionamento di sistemi complessi e auto-organizzanti.

Puoi provare a dare una definizione filosofica dell'informazione indicando la connessione del concetto definito con le categorie di riflessione e attività. L'informazione è il contenuto dell'immagine formata nel processo di riflessione. L'attività è inclusa in questa definizione sotto forma dell'idea della formazione di una certa immagine nel processo di riflessione di una certa relazione soggetto-oggetto. In questo caso non è richiesta alcuna indicazione della connessione tra informazione e materia, poiché sia ​​il soggetto che l'oggetto del processo di riflessione possono appartenere sia alla sfera materiale che a quella spirituale della vita sociale. Tuttavia, è essenziale sottolineare che la soluzione materialistica alla questione principale della filosofia richiede il riconoscimento della necessità dell'esistenza di un ambiente materiale, un portatore di informazioni nel processo di tale riflessione. Quindi, l'informazione dovrebbe essere interpretata come un attributo immanente (intrinsecamente inerente) della materia, un momento necessario della sua autopropulsione e autosviluppo. Questa categoria acquisisce un significato speciale in relazione alle forme più alte di movimento della materia: biologica e sociale.

Esistono numerosi lavori dedicati all'interpretazione fisica delle informazioni. Questi lavori si basano in gran parte sull'analogia tra la formula di Boltzmann, che descrive l'entropia di un sistema statistico di particelle materiali, e la formula di Hartley. I materiali pertinenti possono essere trovati nella letteratura riportata nell'elenco seguente.

L'informazione dovrebbe essere considerata un tipo speciale di risorsa, intendendo l'interpretazione di una "risorsa" come un patrimonio di determinate conoscenze di oggetti materiali o caratteristiche energetiche, strutturali o di altro tipo di un oggetto. A differenza delle risorse associate agli oggetti materiali, le risorse informative sono inesauribili e richiedono metodi di riproduzione e aggiornamento significativamente diversi rispetto alle risorse materiali. In connessione con questa visione, diventano centrali le seguenti proprietà dell'informazione: memorizzabilità, trasferibilità, convertibilità, riproducibilità, cancellabilità.

Per riassumere quanto detto, notiamo che gli sforzi sono stati compiuti (ma non sono affatto completati) da parte di scienziati che rappresentano una varietà di campi della conoscenza per costruire una teoria unificata, che è progettata per formalizzare il concetto di informazione e il processo di informazione, per descrivere la trasformazione delle informazioni in processi di natura molto diversa. Il movimento delle informazioni è l'essenza dei processi di controllo, che sono manifestazione dell'attività immanente della materia, della sua capacità di muoversi. Fin dall'avvento della cibernetica, il controllo è stato considerato in relazione a tutte le forme di movimento della materia, e non solo a quelle superiori (biologiche e sociali). Molte manifestazioni di movimento nei sistemi inanimati - artificiali (tecnici) e naturali (naturali) hanno anche caratteristiche comuni di controllo, sebbene siano studiate in chimica, fisica e meccanica nell'energia piuttosto che nel sistema informativo delle idee. Gli aspetti informativi in ​​tali sistemi costituiscono l'oggetto di una nuova scienza interdisciplinare: la sinergetica.

La più alta forma di informazione manifestata nella gestione dei sistemi sociali è la conoscenza. Questo concetto transdisciplinare, ampiamente utilizzato nella pedagogia e nella ricerca sull’intelligenza artificiale, pretende anche di essere la categoria filosofica più importante. Filosoficamente, la cognizione dovrebbe essere considerata come uno degli aspetti funzionali della gestione. Questo approccio apre la strada a una comprensione sistematica della genesi dei processi cognitivi, dei suoi fondamenti e delle sue prospettive.

Dati, informazioni e conoscenza

I concetti di base utilizzati nell'informatica economica includono: dati, informazione e conoscenza. Questi concetti sono spesso usati in modo intercambiabile, ma esistono differenze fondamentali tra questi concetti.

Il termine dati deriva dalla parola dati - fatto, e informazione (informatio) significa spiegazione, presentazione, cioè informazioni o messaggi.

I dati sono una raccolta di informazioni registrate su un supporto specifico in una forma adatta all'archiviazione, alla trasmissione e all'elaborazione permanente. La trasformazione e l'elaborazione dei dati consente di ottenere informazioni.

Le informazioni sono il risultato della trasformazione e dell’analisi dei dati. La differenza tra informazioni e dati è che i dati sono informazioni fisse su eventi e fenomeni archiviati su determinati supporti e le informazioni appaiono come risultato dell'elaborazione dei dati durante la risoluzione di problemi specifici. Ad esempio, diversi dati vengono archiviati nei database e, su richiesta, il sistema di gestione del database fornisce le informazioni richieste.

Esistono altre definizioni di informazione, ad esempio informazione è informazione su oggetti e fenomeni ambientali, i loro parametri, proprietà e stato, che riducono il grado di incertezza e la conoscenza incompleta su di essi.

La conoscenza è un'informazione elaborata, registrata e verificata dalla pratica, che è stata utilizzata e può essere riutilizzata per il processo decisionale.

La conoscenza è un tipo di informazione archiviata in una base di conoscenza e riflette la conoscenza di uno specialista in un'area tematica specifica. La conoscenza è capitale intellettuale.

La conoscenza formale può assumere la forma di documenti (norme, regolamenti) che regolano il processo decisionale o libri di testo, istruzioni che descrivono come risolvere i problemi. La conoscenza informale è la conoscenza e l'esperienza di specialisti in una determinata area tematica.

Va notato che non esistono definizioni universali di questi concetti (dati, informazioni, conoscenza), ma vengono interpretati in modo diverso. Le decisioni vengono prese sulla base delle informazioni ricevute e delle conoscenze esistenti.

Il processo decisionale è la selezione dell'opzione di soluzione migliore, in un certo senso, da un insieme di soluzioni accettabili sulla base delle informazioni disponibili. La relazione tra dati, informazioni e conoscenza nel processo decisionale è presentata nella figura.

Il rapporto tra dati, informazioni e conoscenza nel processo decisionale

Per risolvere il problema, i dati fissi vengono elaborati sulla base delle conoscenze esistenti, quindi le informazioni ricevute vengono analizzate utilizzando le conoscenze esistenti. Sulla base dell'analisi vengono proposte tutte le soluzioni fattibili e, come risultato della scelta, viene presa la decisione che in un certo senso è migliore. I risultati della soluzione si aggiungono alla conoscenza.

A seconda dell’ambito di utilizzo, le informazioni possono essere diverse: scientifiche, tecniche, gestionali, economiche, ecc. Per l'informatica economica, l'informazione economica è interessante.

Letteratura

  1. Mogilev A.V. Laboratorio di informatica: Proc. aiuti per gli studenti più alto manuale istituzioni/A.V.Mogilev, N.I.Pak, E.K.Henner; Ed. E.K.Henner. - 2a ed., cancellata. - M.: Centro editoriale "Accademia", 2005. - 608 p.

Domande:

    Concetto di informazione.

    Concetti informativi.

    Forme di trasmissione, presentazione e tipologie delle informazioni.

    Proprietà dell'informazione.

    Misurazione delle informazioni. Concetto matematico di informazione

    Il concetto di sistema numerico.

    Codifica binaria.

Concetto di informazione

Attualmente, il concetto di informazione è uno dei centrali nella scienza e nella pratica. E questo non sorprende. Il ruolo dell'informazione nella vita umana è stato riconosciuto intuitivamente fin dai tempi antichi. “In principio era il Verbo” è un pensiero che permea la coscienza umana in ogni momento.

Con lo sviluppo dell'approccio informativo, che rivela nuove proprietà, nuovi aspetti di oggetti materiali, fenomeni e processi sociali, il concetto stesso di informazione è cresciuto dalle categorie quotidiane a un concetto scientifico generale, che, nonostante la sua prevalenza, fino ad oggi causa un'enorme quantità di polemiche, discussioni e che ha molti punti di vista diversi. "Di tutte le scienze, la teoria dell'informazione e l'informatica, sebbene godano di un'enorme e meritata popolarità", scrive R.I. Polonnikov 1, "e abbiano innegabili successi e risultati in una serie di aree applicate, ma continuano a rimanere in una posizione alquanto limitata, perché il loro concetto centrale – l’informazione – rimane rigorosamente definito”. Letteralmente, tanti autori scrivono di informazioni quante sono le definizioni di questo fenomeno.

Per quanto riguarda l'etimologia della parola “informazione”, va notato che essa deriva dal latino “informatio”, che significa dare forma o proprietà. Nel XIV secolo questo era il nome dato alla “programmazione” divina – l’investimento dell’anima e della vita nel corpo umano. Secondo la leggenda, nel XIV secolo, il rabbino Lev si appropriò di questa prerogativa di Dio, il quale creò nel ghetto di Praga un "robot" di argilla - il Golem, che "prendeva vita" ogni volta che il proprietario gli metteva un "programma" sotto la lingua. - un testo con il nome di Dio (shem). Nello stesso periodo la parola “informazione” cominciò a significare la trasmissione della conoscenza attraverso i libri. Pertanto, il significato di questa parola si è gradualmente spostato dai concetti di "ispirazione", "revival" ai concetti di "messaggio", "trama", pur rimanendo intuitivo e non richiedendo definizioni precise, tanto meno analisi filosofiche.

In Russia, il termine “informazione” apparve in epoca petrina, ma non fu ampiamente utilizzato. Solo all'inizio del XX secolo cominciò ad essere utilizzato in documenti, libri, giornali e riviste e utilizzato nel senso di comunicazione, informazione, informazione su qualcosa.

Una comprensione veramente scientifica del concetto di informazione è diventata possibile, infatti, solo grazie al rapido sviluppo negli anni '20 del secolo scorso dei mezzi e dei sistemi di comunicazione, all'emergere dell'informatica e della cibernetica, che hanno richiesto lo sviluppo di una adeguata impostazione teorica base.

La storia degli studi sull'informazione è iniziata con la considerazione del suo aspetto quantitativo associato alla soluzione di problemi di comunicazione applicata e che ha trovato la sua espressione nella teoria americana proposta nel 1948. il ricercatore Claude Shannon della teoria matematica (statistica) dell'informazione. Il concetto da lui proposto si basava sull'idea dell'informazione come una certa sostanza che esiste nel mondo reale indipendentemente da una persona. Shannon ha osservato che "l'idea di base della teoria della comunicazione è che l'informazione può essere considerata come qualcosa di molto simile a una quantità fisica come la massa o l'energia".

Nonostante l'enorme influenza che la teoria matematica dell'informazione ha avuto sullo sviluppo della scienza, i successivi tentativi di estenderla meccanicamente ad altre aree della conoscenza scientifica hanno portato alla comprensione dei limiti delle sue disposizioni e alla necessità di trovare altri approcci per determinare l'essenza di informazione.

E un approccio aggiuntivo essenzialmente diverso era l'approccio cibernetico, che copriva le strutture e le connessioni dei sistemi. Con l'avvento della cibernetica come scienza sulle leggi generali della trasformazione delle informazioni in complessi sistemi di controllo, metodi di percezione, archiviazione, elaborazione e utilizzo delle informazioni, il termine "informazione" è diventato un concetto scientifico, una sorta di strumento per studiare i processi di controllo .

Già nel 1941, Wiener pubblicò il suo primo lavoro sulle analogie tra il lavoro di una macchina matematica e il sistema nervoso di un organismo vivente, e nel 1948 - uno studio fondamentale "Cibernetica, o controllo e comunicazione negli animali e nelle macchine", offrendo il suo “visione informativa” della cibernetica come scienze del controllo e della comunicazione negli organismi viventi, nella società e nelle macchine. L'informazione secondo Wiener è "una designazione di contenuti ricevuti dal mondo esterno nel processo di adattamento ad esso e nell'adattamento dei nostri sensi ad esso".

A differenza di Shannon, Wiener non credeva che informazione, materia ed energia fossero categorie dello stesso ordine. Scrisse: "Il cervello meccanico non secerne il pensiero, come il fegato secerne la bile, come sostenevano gli ex materialisti, e non lo rilascia sotto forma di energia, come i muscoli. L'informazione è informazione, non materia e non energia".

Parlando della formazione e dello sviluppo della cibernetica, non si può non notare il fatto che l'approccio allo studio del fenomeno dell'informazione sviluppato nell'ambito di questa scienza ha avuto un impatto davvero inestimabile sull'intensificazione della ricerca scientifica in questo settore. A questo proposito, gli anni '60 e '70 del XX secolo si rivelarono molto fruttuosi per la ricerca scientifica nel campo delle questioni informative. Fu in questi anni, agli albori dell’informatizzazione, che il fenomeno dell’informazione attirò l’attenzione di filosofi, fisici, linguisti, fisiologi, genetisti, sociologi, storici, ecc. Il concetto di “informazione” ha guadagnato popolarità e ha suscitato un crescente interesse nella comunità scientifica.

Pertanto, la formazione e l'ulteriore sviluppo di vari insegnamenti sull'informazione, i punti di vista e gli approcci per determinarne l'essenza hanno portato al fatto che l'informazione è cresciuta da una categoria intuitiva di comunicazione quotidiana a una categoria scientifica generale, che richiedeva anche una propria comprensione filosofica.

Attualmente, gli esperti contano più di 200 approcci attualmente esistenti per determinare le informazioni, tra i quali non ce n'è uno che sia più o meno generalmente accettato, e alcuni di loro semplicemente non resistono alle critiche e causano valutazioni piuttosto dure nella comunità scientifica .

Fornirò solo alcune delle definizioni di base di informazione:

    L'informazione è la conoscenza trasmessa da qualcun altro o acquisita attraverso la propria ricerca o studio,

    Informazioni sono le informazioni contenute in questo messaggio e considerate come oggetto di trasmissione, archiviazione ed elaborazione,

    L'informazione è il contenuto oggettivo della connessione tra oggetti materiali interagenti, manifestato nei cambiamenti negli stati di questi oggetti,

    Le informazioni sono dati attuali sulle variabili in una determinata area di attività, informazioni sistematizzate relative alle principali relazioni causali contenute nella conoscenza come concetto di una classe più generale, rispetto alla quale l'informazione è subordinata,

    L'informazione è qualsiasi messaggio o trasmissione di informazioni su qualcosa che non era noto in anticipo.

    L'informazione è la scelta ricordata di un'opzione tra diverse possibili ed uguali.

La definizione più generale ha luogo in filosofia, dove l'informazione è intesa come un riflesso del mondo oggettivo, espresso sotto forma di segnali e segni.

    L'informazione è un riflesso nella mente delle persone delle relazioni oggettive di causa-effetto nel mondo reale che ci circonda,

    L'informazione è il contenuto dei processi di riflessione.

Il concetto di informazione presuppone la presenza di due oggetti: una fonte e un consumatore. Per comprendere l'essenza dell'informazione occorre tenere conto di altre categorie filosofiche, come il movimento, lo spazio, il tempo, nonché il problema del primato della materia e della secondarietà della conoscenza. Un'altra condizione molto importante per comprendere l'essenza dell'informazione e risolvere correttamente i problemi informativi e cognitivi, tra cui la maggior parte di quelli legali, è l'utilizzo del principio di rappresentazione adeguata dell'oggetto visualizzato da parte dell'oggetto che lo visualizza.

Pertanto, per informazioni si intendono informazioni sul mondo circostante e sui processi che si verificano in esso, percepite da una persona o da dispositivi speciali per garantire un'attività mirata. Inoltre, le informazioni sull'oggetto della cognizione possono non solo essere percepite dal soggetto cognitivo o da un dispositivo tecnico (con elaborazione adeguata), ma anche, per così dire, separate dalla sua fonte primaria: la visualizzazione dell'oggetto della cognizione.

Ne consegue che esso può essere trasferito nello spazio, immagazzinato nel tempo, trasferito su un altro soggetto cognitivo o dispositivo tecnico (ad esempio un computer), e sottoposto ad altre operazioni, la cui totalità è chiamata processi informativi. La loro composizione e sequenza sono determinate in ciascun caso particolare. In generale, i processi di informazione comprendono la creazione, la sintesi, la trasmissione, la ricezione, l'accumulazione, l'immagazzinamento, la trasformazione, la sistematizzazione, l'analisi, la selezione, la diffusione delle informazioni e la loro presentazione in una forma user-friendly.

Al concetto di informazione sono associati concetti come segnale, messaggio e dato.

I segnali riflettono le caratteristiche fisiche di vari processi e oggetti e attraverso i segni una persona percepisce il mondo oggettivo. Così, Segnale rappresenta qualsiasi processo che trasporta informazioni.

È opportuno notare che in letteratura sono talvolta presenti definizioni che si basano sul confronto tra il concetto di informazione e il concetto di messaggio. In questo caso, nella definizione si crea un “circolo vizioso”: l'informazione è un messaggio e il messaggio è informazione. In molti casi tale definizione può essere giustificata, malgrado il suo carattere tautologico. Tuttavia, la teoria dell’informazione dovrebbe andare oltre e definire l’informazione in modo più significativo. Esistono anche differenze significative tra i concetti di informazione e dati. I dati sono quantità, le loro relazioni, frasi, fatti, la cui trasformazione ed elaborazione consente di estrarre informazioni, ad es. conoscenza di un particolare processo o fenomeno. Per essere più precisi, quindi dati - si tratta di fatti e idee presentati in una forma formalizzata che consente la trasmissione o l'elaborazione di tali fatti e idee utilizzando un processo o mezzi tecnici appropriati.

Messaggio Si tratta di informazioni espresse in una forma specifica e destinate ad essere trasmesse. Un esempio di messaggio è il testo di un telegramma, il discorso di un oratore, le letture di un dispositivo di misurazione, comandi di controllo, ecc. Pertanto, un messaggio è una forma di presentazione di informazioni.

Dati - Questo informazioni presentate in una forma formalizzata e destinate al trattamento con mezzi tecnici, come un computer. Quelli. I dati sono la materia prima per ottenere informazioni.

Ora che abbiamo compreso i concetti generali, vediamo come il legislatore approccia il concetto di “informazione”.

In generale, il fondatore di un'informazione separata e di una direzione giuridica in giurisprudenza è A.B. Vengerov. Non ha fornito una definizione chiara di informazione, ma ha elencato alcune caratteristiche (proprietà) delle informazioni importanti per la legge. Questi includono, in particolare:

a) una certa indipendenza informativa rispetto al proprio vettore; b) la possibilità di utilizzo ripetuto delle stesse informazioni; c) la sua inesauribilità nel consumo; d) conservazione delle informazioni trasmesse presso l'entità trasmittente; e) capacità di conservare, aggregare, integrare, accumulare; f) certezza quantitativa; g) consistenza 2.

Nei lavori sulla sicurezza delle informazioni viene utilizzato il seguente concetto: l'informazione è il risultato della riflessione e dell'elaborazione nella mente umana della diversità del mondo circostante, si tratta di informazioni sugli oggetti intorno a una persona, fenomeni naturali, attività di altre persone , eccetera. 3

Va notato che negli ultimi anni c'è stato uno sviluppo attivo della legislazione nel campo dell'informazione e la formazione del diritto dell'informazione come settore indipendente. Il fondamento giuridico che regola le relazioni nel campo dell'informazione è costituito da alcuni articoli della Costituzione della Federazione Russa (in particolare, articoli 23, 24, 29, 44). Inoltre, per 11 anni (fino al 2006), è stata in vigore la legge federale del 20 febbraio 1995 N 24-FZ “Sull’informazione, l’informatizzazione e la protezione delle informazioni” (come modificata dalla legge federale del 10 gennaio 2003 N 615- Legge federale (di seguito denominata Legge sull'informazione del 1995)).

Questa legge regolava i rapporti derivanti dalla formazione e dall'uso delle risorse informative basate sulla creazione, raccolta, elaborazione, accumulazione, archiviazione, ricerca, distribuzione e fornitura di informazioni documentate al consumatore; creazione e utilizzo delle tecnologie dell'informazione e mezzi per supportarle; tutela dell'informazione, diritti dei soggetti partecipanti ai processi di informazione e informatizzazione.

Il 27 luglio 2006 è stata adottata la legge federale n. 149-FZ "Sull'informazione, le tecnologie dell'informazione e la protezione delle informazioni" (di seguito denominata legge federale), che regola le relazioni nell'esercizio del diritto di ricerca, ricezione, trasmissione , produrre e diffondere informazioni, con l'uso delle tecnologie informatiche, nonché nel garantire la protezione delle informazioni, ad eccezione dei rapporti nel campo della protezione dei risultati dell'attività intellettuale e mezzi equivalenti di individualizzazione.

Lo sviluppo di un nuovo atto legislativo di base è dovuto alla necessità di unificare, sia da un punto di vista concettuale che sostanziale, i principi e le regole di interazione in questo settore, di colmare una serie di lacune in esso presenti e di portare la legislazione di la Federazione Russa più vicina alla pratica internazionale di regolare le relazioni informative.

L'articolo 2 di tale legge introduce una serie di concetti fondamentali.

Il concetto centrale della legislazione sull’informazione, sulla tecnologia dell’informazione e sulla protezione delle informazioni è il concetto di “informazione”. Nella precedente legge sull'informazione del 1995, per informazione si intendevano informazioni su persone, oggetti, fatti, eventi, fenomeni e processi, indipendentemente dalla forma della loro fornitura. La nuova legge federale presenta la definizione di informazione in una forma più generale. Per informazione si intende qualsiasi informazione (messaggi, dati) indipendentemente dalla forma in cui viene fornita.

Guardando un po’ avanti, va osservato che l’art. 5 della Legge determina lo status delle informazioni come oggetto di rapporti giuridici. "Le informazioni possono essere oggetto di rapporti giuridici pubblici, civili e di altro tipo. Le informazioni possono essere utilizzate liberamente da qualsiasi persona e trasferite da una persona a un'altra persona, a meno che le leggi federali non stabiliscano restrizioni all'accesso alle informazioni o altri requisiti per la procedura per la sua fornitura o distribuzione."

Continuiamo il discorso sui concetti introdotti nella Legge. L'articolo 2 introduce una nuova definizione per la legislazione russa del concetto di "tecnologia dell'informazione", che combina processi, metodi di ricerca, raccolta, archiviazione, elaborazione, fornitura, distribuzione di informazioni e metodi della loro attuazione. L'informatica è importante per lo sviluppo perché, data l'importanza dell'informazione, lo è viene determinato il livello di sviluppo di tali tecnologie il potenziale per ulteriori movimenti progressisti in tutti i settori della società.

La tecnologia è un complesso di conoscenze scientifiche e ingegneristiche implementate in tecniche di lavoro, insiemi di fattori di produzione materiali, tecnici, energetici, lavorativi, metodi per combinarli per creare un prodotto o servizio che soddisfi determinati requisiti. Pertanto, la tecnologia è indissolubilmente legata alla meccanizzazione di un processo produttivo o non produttivo, principalmente gestionale. Le tecnologie di gestione si basano sull'uso dei computer e della tecnologia delle telecomunicazioni.

Secondo la definizione adottata dall'UNESCO, la tecnologia dell'informazione è un complesso di discipline scientifiche, tecnologiche e ingegneristiche interconnesse che studiano metodi per organizzare efficacemente il lavoro delle persone coinvolte nell'elaborazione e nell'archiviazione delle informazioni; tecnologia informatica e metodi di organizzazione e interazione con le persone e le apparecchiature di produzione, le loro applicazioni pratiche, nonché i problemi sociali, economici e culturali associati a tutto ciò. Le stesse tecnologie dell'informazione richiedono una formazione complessa, grandi costi iniziali e tecnologia high-tech. La loro introduzione dovrebbe iniziare con la creazione di software matematico e la formazione di flussi di informazioni nei sistemi di formazione specialistica.

Pertanto, la tecnologia dell'informazione è un complesso di oggetti, azioni e regole associati alla preparazione, elaborazione e fornitura di informazioni nella comunicazione personale, di massa e industriale, nonché tutte le tecnologie e le industrie che supportano integralmente i processi elencati.

I principali tipi di tecnologie dell'informazione includono:

Tecnologie dell'informazione altamente intelligenti, che rappresentano la generazione di soluzioni tecniche che implementano la modellazione situazionale, consentendo di identificare la connessione degli elementi, le loro dinamiche e identificare modelli oggettivi dell'ambiente;

Supportare le tecnologie dell'informazione - focalizzate sulla garanzia dell'implementazione di determinate funzioni (contabilità e statistica, mantenimento di un sistema di personale, flusso di documenti, mantenimento di transazioni finanziarie, sistemi di gestione strategica, ecc.);

Tecnologie dell'informazione e della comunicazione - progettate per garantire lo sviluppo delle telecomunicazioni e dei suoi sistemi 4

L'articolo contiene anche una definizione raffinata del concetto di “sistema informativo”. Nella legge sull'informazione del 1995, precedentemente in vigore, per sistema informativo si intendeva un insieme organizzato di documenti (serie di documenti) e tecnologie informatiche, compreso l'uso della tecnologia informatica e delle comunicazioni che implementano i processi informativi.

Un sistema informativo è un sistema tecnologico che rappresenta la compatibilità di mezzi tecnici, software e altri che combinano strutturalmente e funzionalmente diversi tipi di processi informativi e forniscono servizi di informazione.

Segni di un sistema informativo:

Svolgere una o più funzioni in relazione alle informazioni;

Unità di sistema (presenza di un archivio comune, standard e protocolli comuni, gestione unificata);

Possibilità di composizione e scomposizione di oggetti di sistema durante l'esecuzione di funzioni specificate (estratti di leggi, segnalibri - tutto in 1 file).

Requisiti di base per il sistema informativo:

Efficienza;

Qualità del funzionamento (ovvero accuratezza, sicurezza, coerenza con gli standard);

Affidabilità (ovvero quelle soglie in cui il sistema fallisce in termini di qualità delle informazioni, tempo di accesso, prestazioni;)

Sicurezza.

Il rapido sviluppo delle tecnologie dell’informazione e delle telecomunicazioni ha reso necessaria la necessità di sancire nella legislazione il termine “rete di informazione e telecomunicazioni”. È un sistema tecnologico progettato per trasmettere informazioni su linee di comunicazione, accessibili utilizzando la tecnologia informatica.

In conformità con l'art. 2 della legge federale del 7 luglio 2003 N 126-FZ “Sulle comunicazioni” (modificata il 27 luglio 2006), il concetto di “linee di comunicazione” si riferisce alle linee di trasmissione, ai circuiti fisici e alle strutture di comunicazione linea-cavo.

In generale, una rete di informazione e telecomunicazione è un mezzo per trasmettere informazioni sul mondo circostante, sui suoi oggetti, processi e fenomeni, oggettivati ​​in una forma che consente loro di essere elaborati (decifrati) dalla macchina. Ad esempio, Internet è un tipo di rete di informazione e telecomunicazione.

Internet, dal punto di vista tecnico, è la più grande rete di telecomunicazioni, formata dall'unione di più di diecimilacinquecento reti di telecomunicazioni di vario tipo. Questa unificazione è stata resa possibile attraverso l'uso del protocollo di rete TCP/IP, che svolge il ruolo di una sorta di traduttore di standard nella trasmissione di dati tra diversi tipi di reti di telecomunicazione.

Internet come spazio informativo globale non riconosce i confini statali e non è solo il mezzo più efficace per accedere alle risorse informative accumulate dall'umanità, ma diventa anche un mezzo per diffondere informazioni di massa. Il funzionamento della rete è un fattore potente nello sviluppo e nell'utilizzo di tecnologie avanzate.

D'altra parte, l'uso di Internet è associato alla possibilità di diffusione incontrollata di informazioni non autorizzate, penetrazione nei sistemi di controllo e violazione dei diritti umani, il che richiede senza dubbio un'attenzione particolare alle questioni relative alla sicurezza delle informazioni.

Il rapido sviluppo di Internet nel mondo civilizzato sta superando il processo di creazione e miglioramento degli atti normativi necessari per regolamentare i problemi emergenti. Con lo sviluppo di Internet negli ultimi anni, i problemi legali della rete stanno diventando sempre più rilevanti sullo sfondo di una notevole trasformazione nel mondo degli approcci alla loro risoluzione: dall'enfasi sull'autoregolamentazione alla rigorosa regolamentazione legale.

I principali problemi che richiedono una regolamentazione legislativa in Russia in relazione allo sviluppo di Internet non sono praticamente diversi da quelli di altri paesi sviluppati del mondo:

1) garantire una connessione gratuita a Internet e lo scambio di informazioni on-line;

3) protezione dei dati personali, in particolare di quelli raccolti nell'ambito delle attività degli operatori di rete (compresi indirizzi, numeri di telefono e altri dati personali degli abbonati o degli acquirenti nel sistema del “commercio elettronico”);

4) collegare gli enti pubblici a Internet e fornire ai cittadini informazioni sulle attività di tali enti;

5) impedire la diffusione di informazioni offensive ed oscene, incitamenti all'odio nazionale, razziale, religioso, ecc.;

6) gestione elettronica dei documenti, firma elettronica, conferma dell'autenticità delle informazioni nei prodotti informativi, mezzi per visualizzare e trasmettere informazioni;

7) commercio elettronico;

8) sicurezza delle informazioni: virus informatici, accesso non autorizzato alle informazioni, pirateria informatica di server e reti, distruzione e sostituzione di informazioni;

9) utilizzo di mezzi di protezione crittografica;

10) giurisdizione: la legislazione di quale Stato deve essere applicata per regolare le azioni intraprese su Internet.

L'analisi dell'attuale legislazione russa mostra che le questioni di regolamentazione giuridica relative al funzionamento e allo sviluppo del sistema Internet in Russia formano un ampio quadro normativo, che comprende più di 50 leggi federali solo a livello federale, per non parlare di numerosi atti normativi di il Presidente e il Governo della Federazione Russa. La gamma di questi atti legislativi è estremamente ampia e la loro interpretazione dal punto di vista delle specificità dei rapporti giuridici derivanti dall'uso delle moderne tecnologie dell'informazione è difficile, soprattutto perché quando queste leggi sono state sviluppate, non prevedevano le corrispondenti possibilità. È chiaro che anche quest'area dei rapporti giuridici è completamente nuova per i tribunali.

La legge introduce anche una serie di altri concetti. Pertanto, la legge federale adegua l'apparato concettuale e i meccanismi normativi alla pratica dell'uso delle tecnologie dell'informazione, determina lo status giuridico di varie categorie di informazioni, stabilisce disposizioni nel campo della creazione e del funzionamento dei sistemi di informazione, requisiti generali per l'uso delle reti di informazione e telecomunicazione, nonché i principi per regolare le pubbliche relazioni relative all'uso dell'informazione.

È stabilito il principio della libertà di ricercare, ricevere, trasmettere, produrre e diffondere informazioni in qualsiasi modo legale. In questo caso, la limitazione dell'accesso alle informazioni può essere stabilita solo dalle leggi federali.

La legge contiene disposizioni volte a tutelare contro l'uso scorretto o abusivo dei mezzi di diffusione delle informazioni, nei quali si impongono agli utenti informazioni non necessarie. In particolare, le informazioni devono includere informazioni attendibili sul loro proprietario o su un'altra persona che le distribuisce, in una forma e in un volume sufficienti per identificare tale persona. Quando si utilizzano mezzi di diffusione delle informazioni che consentono di identificarne i destinatari, compresi gli invii postali e i messaggi elettronici, chi diffonde le informazioni è tenuto a fornire al destinatario delle informazioni la possibilità di rifiutarle.

Le regole fondamentali e i metodi per proteggere i diritti all'informazione, l'informazione stessa, sono determinati adottando misure legali, organizzative e tecniche (software e hardware) fondamentali. I diritti del proprietario delle informazioni contenute nei database dei sistemi informativi sono soggetti a protezione indipendentemente dal diritto d'autore e da altri diritti su tali database.

A seconda della categoria di accesso alle informazioni, queste sono suddivise in disponibili al pubblico e limitate dalle leggi federali (informazioni riservate). Viene stabilito un elenco di informazioni, il cui accesso non può essere limitato (ad esempio, sulle attività degli enti governativi e sull'utilizzo dei fondi di bilancio), nonché le informazioni fornite gratuitamente.

Nella letteratura giuridica operano principalmente con i concetti di apertura, apertura, pubblicità e trasparenza, insieme ai quali viene utilizzato il termine “trasparenza”. Nella legislazione di settore, questi concetti sono utilizzati come principi fondamentali. Il nuovo termine "trasparenza", preso in prestito dalla pratica straniera, è strettamente correlato alla pubblicità, all'apertura, all'accesso alle informazioni, ma, in realtà, è il più vicino ai termini trasparenza e accessibilità.

È vietato esigere da un cittadino (individuo) informazioni sulla sua vita privata, comprese le informazioni che costituiscono un segreto personale o familiare, e ricevere tali informazioni contro la volontà del cittadino (individuo). Eccezioni possono essere fatte solo nei casi previsti dalle leggi federali.

Stranamente, il testo di questa legge non include alcuni concetti utilizzati nella precedente legge sull'informazione del 1995. Tali concetti sono "informatizzazione", "processi di informazione", "risorse informative", "informazioni sui cittadini (dati personali) ", "mezzi per fornire sistemi informativi automatizzati".

L’assenza dei termini “informatizzazione” e “risorse informative” nella nuova legge federale sembra essere un’omissione, perché Questi concetti sono già ampiamente utilizzati non solo negli atti legislativi e in altri atti normativi (ad esempio, nel Codice doganale della Federazione Russa, ecc.), ma sono anche saldamente radicati nel campo dell'applicazione della legislazione sull'informazione.

Gli sviluppatori di questa legge federale, escludendo il concetto di "informatizzazione" dal testo, sono partiti dal fatto che essa, in linea di principio, ha il diritto di esistere, ma non ha posto nei testi giuridici, perché Puoi inserirvi contenuti diversi. Proprio a causa dell'ambiguità, il suo utilizzo nel testo della precedente legge federale, soprattutto nel titolo, non è stata, a loro avviso, l'idea operativa di maggior successo. Inoltre, gli sviluppatori della nuova legge federale fanno riferimento all'assenza di questo termine nella legislazione straniera.

Tuttavia, è difficile essere d'accordo con questa posizione, perché Durante il periodo di validità della Legge sull'informazione del 1995, sono stati adottati numerosi atti legislativi volti alla formazione e all'uso delle risorse informative e alla definizione delle norme di una serie di atti codificati (Codice penale della Federazione Russa, Codice dei reati amministrativi di della Federazione Russa del 30 dicembre 2001 N 195-FZ (modificata il 26 luglio 2006)). La terminologia della precedente legge sull'informazione del 1995 è stata utilizzata in molti regolamenti. Inoltre, la legislazione straniera opera, ad esempio, con il termine “informatizzazione”. Sembra quindi che il termine “informatizzazione” non richieda la rimozione dalla legislazione russa sull’informazione.

Anche l'esclusione della definizione di “risorse informative” dalla Legge era, a mio avviso, infondata. Inoltre, ad esempio, nella stessa legge nella parte 9 dell'art. 14 contiene un'indicazione che le informazioni contenute nei sistemi informativi statali, nonché altre informazioni e documenti a disposizione degli organi statali sono risorse informative statali.

Vorrei sottolineare che la mancanza di chiarezza di alcuni termini, così come i cambiamenti talvolta infondati nelle definizioni dei concetti utilizzati nella legislazione sull'informazione, non contribuiscono al miglioramento della regolamentazione legale nella sfera dell'informazione.

La mancanza di una definizione del concetto di "dati personali" è spiegata dal fatto che quasi contemporaneamente alla nuova legge federale è stata adottata la legge federale n. 152-FZ del 27 luglio 2006 "sui dati personali", che garantisce la tutela dei diritti e delle libertà dell'uomo e del cittadino nel trattamento dei suoi dati personali, compresa la tutela del diritto alla riservatezza, dei segreti personali e familiari.

Concludendo la considerazione di questo problema, va notato che un numero significativo di termini relativi al concetto di informazione sono contenuti in leggi specializzate come "Sulle comunicazioni", "Sui segreti di Stato", "Sull'intelligence straniera", ecc.