Informação são dados em vários formatos.  Conceito de informação.  A informação informática parece que

Informação são dados em vários formatos. Conceito de informação. A informação informática parece que

Informação é informação sobre algo

Conceito e tipos de informação, transmissão e processamento, busca e armazenamento de informação

Expandir conteúdo

Recolher conteúdo

Informação é, definição

A informação é qualquer informação recebida e transmitida, armazenada por diversas fontes. Informação é todo o conjunto de informações sobre o mundo que nos rodeia, sobre todos os tipos de processos que nele ocorrem e que podem ser percebidos por organismos vivos, máquinas eletrônicas e outros sistemas de informação.

- Esse informação significativa sobre algo, quando a forma de sua apresentação também é informação, ou seja, tem função de formatação de acordo com sua natureza.

A informação é tudo o que pode ser complementado com nossos conhecimentos e suposições.

A informação é informações sobre algo, independentemente da forma como são apresentadas.

A informação é um produto mental de qualquer organismo psicofísico produzido por ele usando qualquer meio denominado meio de informação.

A informação é informações percebidas por humanos e (ou) especialistas. dispositivos como reflexo dos fatos do mundo material ou espiritual no processo de comunicação.

A informação é dados organizados de tal forma que façam sentido para quem os manipula.

A informação é o significado que uma pessoa atribui aos dados com base nas convenções conhecidas usadas para representá-los.


A informação é informação, explicação, apresentação.

A informação é quaisquer dados ou informações que interessem a alguém.

A informação é informações sobre objetos e fenômenos ambientais, seus parâmetros, propriedades e estados, que são percebidos pelos sistemas de informação (organismos vivos, máquinas de controle, etc.) no processo de vida e trabalho.

A mesma mensagem informativa (artigo de jornal, anúncio, carta, telegrama, certificado, história, desenho, transmissão de rádio, etc.) pode conter diferentes quantidades de informação para pessoas diferentes - dependendo do seu conhecimento prévio, do nível de compreensão desta mensagem e interesse nisso.

Nos casos em que falam em trabalho automatizado com informações por meio de quaisquer dispositivos técnicos, não estão interessados ​​​​no conteúdo da mensagem, mas em quantos caracteres esta mensagem contém.

Em relação ao processamento de dados computacionais, a informação é entendida como uma determinada sequência de designações simbólicas (letras, números, imagens gráficas e sons codificados, etc.), carregando uma carga semântica e apresentadas de forma compreensível ao computador. Cada novo caractere nessa sequência de caracteres aumenta o volume de informações da mensagem.


Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. Por exemplo, o conceito de “informação” é básico num curso de informática, sendo impossível defini-lo através de outros conceitos mais “simples” (assim como em geometria, por exemplo, é impossível expressar o conteúdo do conceitos básicos “ponto”, “linha”, “plano” através de conceitos mais simples).


O conteúdo dos conceitos básicos de qualquer ciência deve ser explicado com exemplos ou identificado comparando-os com o conteúdo de outros conceitos. No caso do conceito “informação”, o problema da sua definição é ainda mais complexo, visto que se trata de um conceito científico geral. Este conceito é utilizado em diversas ciências (informática, cibernética, biologia, física, etc.), e em cada ciência o conceito de “informação” está associado a diferentes sistemas de conceitos.


Conceito de informação

Na ciência moderna, são considerados dois tipos de informação:

Informação objetiva (primária) é propriedade de objetos materiais e fenômenos (processos) de gerar uma variedade de estados, que por meio de interações (interações fundamentais) são transmitidos a outros objetos e impressos em sua estrutura.

Informação subjetiva (semântica, semântica, secundária) é o conteúdo semântico da informação objetiva sobre objetos e processos do mundo material, formada pela consciência humana com o auxílio de imagens semânticas (palavras, imagens e sensações) e registradas em algum meio material.


No sentido cotidiano, informação é informação sobre o mundo circundante e os processos que nele ocorrem, percebidas por uma pessoa ou por um dispositivo especial.

Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. De acordo com o conceito de K. Shannon, informação é a incerteza removida, ou seja, informações que devem eliminar, de uma forma ou de outra, a incerteza existente no consumidor antes de recebê-la, e ampliar sua compreensão do objeto com informações úteis.


Do ponto de vista de Gregory Beton, a unidade elementar de informação é uma “diferença não indiferente” ou diferença efetiva para algum sistema de percepção mais amplo. Ele chama aquelas diferenças que não são percebidas de “potenciais” e aquelas que são percebidas de “efetivas”. “A informação consiste em diferenças que não são indiferentes” (c) “Qualquer percepção de informação é necessariamente o recebimento de informação sobre a diferença.” Do ponto de vista da ciência da computação, a informação possui uma série de propriedades fundamentais: novidade, relevância, confiabilidade, objetividade, completude, valor, etc. A ciência da lógica trata principalmente da análise da informação. A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de informação foi considerado pelos filósofos antigos.

Antes do início da Revolução Industrial, determinar a essência da informação permanecia prerrogativa principalmente dos filósofos. Além disso, a nova ciência da cibernética começou a considerar questões da teoria da informação.

Às vezes, para compreender a essência de um conceito, é útil analisar o significado da palavra pela qual esse conceito é denotado. Esclarecer a forma interna de uma palavra e estudar a história de seu uso pode lançar uma luz inesperada sobre seu significado, obscurecido pelo uso “tecnológico” usual da palavra e pelas conotações modernas.

A palavra informação entrou na língua russa na era petrina. Foi registrado pela primeira vez nos “Regulamentos Espirituais” de 1721 no significado de “ideia, conceito de algo”. (Nas línguas europeias foi estabelecido anteriormente - por volta do século XIV.)

Com base nesta etimologia, pode-se considerar informação qualquer mudança significativa de forma ou, em outras palavras, quaisquer vestígios materialmente registrados, formados pela interação de objetos ou forças e passíveis de compreensão. A informação, portanto, é uma forma convertida de energia. O portador da informação é um signo, e o método de sua existência é a interpretação: identificar o significado de um signo ou de uma sequência de signos.

O significado pode ser um evento reconstruído a partir de um signo que causou sua ocorrência (no caso de signos “naturais” e involuntários, como vestígios, evidências, etc.), ou uma mensagem (no caso de signos convencionais inerentes à esfera da linguagem). É o segundo tipo de signos que constitui o corpo da cultura humana, que, segundo uma definição, é “um conjunto de informações transmitidas não hereditariamente”.

As mensagens podem conter informações sobre fatos ou interpretação de fatos (do latim interpretatio, interpretação, tradução).

Um ser vivo recebe informações através dos sentidos, bem como através da reflexão ou intuição. A troca de informações entre sujeitos é comunicação ou comunicação (do latim communicatio, mensagem, transferência, derivado por sua vez do latim communico, tornar comum, comunicar, falar, conectar).

Do ponto de vista prático, a informação é sempre apresentada em forma de mensagem. A mensagem informativa está associada à origem da mensagem, ao destinatário da mensagem e ao canal de comunicação.


Voltando à etimologia latina da palavra informação, vamos tentar responder à pergunta sobre o que exatamente é dado aqui.

É óbvio que, em primeiro lugar, a um determinado sentido que, sendo inicialmente informe e inexpresso, só existe potencialmente e deve ser “construído” para ser percebido e transmitido.

Em segundo lugar, a mente humana, que é treinada para pensar de forma estrutural e clara. Em terceiro lugar, a uma sociedade que, precisamente porque os seus membros partilham estes significados e os utilizam em conjunto, ganha unidade e funcionalidade.

A informação como significado inteligente expresso é o conhecimento que pode ser armazenado, transmitido e servir de base para a geração de outros conhecimentos. As formas de conservação do conhecimento (memória histórica) são diversas: desde mitos, crônicas e pirâmides até bibliotecas, museus e bancos de dados computacionais.

Informação é informação sobre o mundo que nos rodeia, sobre os processos que nele ocorrem, que são percebidos pelos organismos vivos, máquinas de controle e outros sistemas de informação.

A palavra "informação" é latina. Ao longo de sua longa vida, seu significado sofreu evolução, ampliando ou estreitando extremamente seus limites. A princípio, a palavra “informação” significava: “representação”, “conceito”, depois “informação”, “transmissão de mensagens”.


Nos últimos anos, os cientistas decidiram que o significado habitual (universalmente aceite) da palavra “informação” é demasiado elástico e vago, e deram-lhe o seguinte significado: “uma medida de certeza numa mensagem”.

A teoria da informação ganhou vida pelas necessidades da prática. A sua origem está associada à obra de Claude Shannon “Teoria matemática da comunicação”, publicada em 1946. Os fundamentos da teoria da informação baseiam-se em resultados obtidos por muitos cientistas. Na segunda metade do século XX, o mundo fervilhava com informações transmitidas por cabos telefônicos e telegráficos e canais de rádio. Mais tarde, surgiram os computadores eletrônicos - processadores de informação. E naquela época, a principal tarefa da teoria da informação era, antes de tudo, aumentar a eficiência dos sistemas de comunicação. A dificuldade em projetar e operar meios, sistemas e canais de comunicação é que não basta ao projetista e ao engenheiro resolver o problema do ponto de vista físico e energético. Destes pontos de vista, o sistema pode ser o mais perfeito e económico. Mas ao criar sistemas de transmissão, é importante prestar atenção na quantidade de informação que passará por esse sistema de transmissão. Afinal, a informação pode ser medida quantitativamente, contada. E nesses cálculos agem da maneira mais usual: abstraem do significado da mensagem, assim como abandonam a concretude nas operações aritméticas que nos são familiares (à medida que passam da adição de duas maçãs e três maçãs à adição de números em geral: 2 + 3).


Os cientistas disseram que “ignoraram completamente a avaliação humana da informação”. A uma série sequencial de 100 letras, por exemplo, atribuem um determinado significado de informação, sem prestar atenção se essa informação faz sentido e se, por sua vez, faz sentido na aplicação prática. A abordagem quantitativa é o ramo mais desenvolvido da teoria da informação. Por esta definição, uma coleção de 100 letras – uma frase de 100 letras de um jornal, uma peça de Shakespeare ou o teorema de Einstein – tem exatamente a mesma quantidade de informação.


Esta definição de quantidade de informação é extremamente útil e prática. Corresponde exactamente à tarefa do engenheiro de comunicações, que deve transmitir toda a informação contida no telegrama submetido, independentemente do valor dessa informação para o destinatário. O canal de comunicação não tem alma. Uma coisa é importante para o sistema de transmissão: transmitir a quantidade necessária de informações em um determinado tempo. Como calcular a quantidade de informações em uma determinada mensagem?

A avaliação da quantidade de informação é baseada nas leis da teoria das probabilidades, ou mais precisamente, é determinada através das probabilidades dos eventos. Isto é incompreensível. Uma mensagem tem valor e contém informações apenas quando aprendemos com ela sobre o resultado de um evento que é de natureza aleatória, quando é até certo ponto inesperado. Afinal, a mensagem sobre o que já se sabe não contém nenhuma informação. Aqueles. Se, por exemplo, alguém te ligar e disser: “Faz claro durante o dia e escuro à noite”, então tal mensagem irá surpreendê-lo apenas com o absurdo de afirmar algo óbvio e conhecido de todos, e não com as notícias que ele contém. Outra coisa, por exemplo, é o resultado de uma corrida. Quem virá primeiro? O resultado aqui é difícil de prever. Quanto mais resultados aleatórios um evento de nosso interesse tiver, mais valiosa será a mensagem sobre seu resultado e mais informações. Uma mensagem sobre um evento que tem apenas dois resultados igualmente possíveis contém uma única unidade de informação chamada bit. A escolha de uma unidade de informação não é acidental. Está associado à forma binária mais comum de codificá-lo durante a transmissão e processamento. Tentemos, pelo menos da forma mais simplificada, imaginar o princípio geral da avaliação quantitativa da informação, que é a pedra angular de toda a teoria da informação.


Já sabemos que a quantidade de informação depende das probabilidades de determinados resultados de um evento. Se um evento, como dizem os cientistas, tem dois resultados igualmente prováveis, isso significa que a probabilidade de cada resultado é 1/2. Esta é a probabilidade de obter cara ou coroa ao lançar uma moeda. Se um evento tiver três resultados igualmente prováveis, a probabilidade de cada um é 1/3. Observe que a soma das probabilidades de todos os resultados é sempre igual a um: afinal, um de todos os resultados possíveis ocorrerá definitivamente. Um evento, como você mesmo entende, pode ter resultados prováveis ​​de forma desigual. Assim, num jogo de futebol entre uma equipa forte e uma equipa fraca, a probabilidade de a equipa forte vencer é elevada - por exemplo, 4/5. A probabilidade de empate é muito menor, por exemplo 3/20. A probabilidade de derrota é muito pequena.


Acontece que a quantidade de informação é uma medida para reduzir a incerteza de uma determinada situação. Várias quantidades de informações são transmitidas pelos canais de comunicação, e a quantidade de informações que passa pelo canal não pode ser maior que sua capacidade. E é determinado pela quantidade de informação que passa aqui por unidade de tempo. Um dos heróis do romance A Ilha Misteriosa de Júlio Verne, o jornalista Gideon Spillett, transmitiu por telefone um capítulo da Bíblia para que seus concorrentes não pudessem usar a conexão telefônica. Nesse caso, o canal estava totalmente carregado e a quantidade de informações era igual a zero, pois as informações que ele conhecia foram transmitidas ao assinante. Isso significa que o canal estava ocioso, passando um número estritamente definido de pulsos sem carregá-los com nada. Enquanto isso, quanto mais informações cada um de um certo número de pulsos carrega, mais plenamente a capacidade do canal é utilizada. Portanto, você precisa codificar as informações com sabedoria, encontrar uma linguagem econômica e econômica para transmitir mensagens.


As informações são analisadas da maneira mais completa. No telégrafo, letras que ocorrem com frequência, combinações de letras e até frases inteiras são representadas por um conjunto mais curto de zeros e uns, e aquelas que ocorrem com menos frequência são representadas por um conjunto mais longo. No caso em que o comprimento da palavra-código é reduzido para símbolos que ocorrem com frequência e aumentado para símbolos que ocorrem raramente, eles falam de codificação eficaz de informações. Mas, na prática, muitas vezes acontece que o código que surge como resultado da “peneiração” mais cuidadosa, o código é conveniente e econômico, pode distorcer a mensagem devido a interferências, o que, infelizmente, sempre acontece nos canais de comunicação: som distorção no telefone, interferência atmosférica no rádio, distorção ou escurecimento da imagem na televisão, erros de transmissão no telégrafo. Essa interferência, ou como chamam os especialistas, ruído, ataca a informação. E isso resulta nas surpresas mais incríveis e, naturalmente, desagradáveis.


Portanto, para aumentar a confiabilidade na transmissão e processamento das informações, é necessária a introdução de caracteres extras – uma espécie de proteção contra distorções. Eles – esses símbolos extras – não carregam o conteúdo real da mensagem, são redundantes. Do ponto de vista da teoria da informação, tudo o que torna uma linguagem colorida, flexível, rica em matizes, multifacetada, multivalorada é redundância. Quão redundante, desse ponto de vista, é a carta de Tatyana para Onegin! Quanto excesso de informação há nele para uma mensagem breve e compreensível “eu te amo”! E quão precisas são as placas desenhadas à mão, compreensíveis para todos que hoje entram no metrô, onde em vez de palavras e frases de anúncios há placas simbólicas lacônicas indicando: “Entrada”, “Saída”.


A este respeito, é útil relembrar a anedota contada uma vez pelo famoso cientista americano Benjamin Franklin sobre um fabricante de chapéus que convidou seus amigos para discutir um projeto de sinalização. Era para desenhar um chapéu na placa e escrever: “John Thompson. , um fabricante de chapéus, fabrica e vende chapéus por dinheiro.” Um dos amigos observou que as palavras “por dinheiro” são desnecessárias - tal lembrete seria ofensivo para o comprador. Outro também achou a palavra “vende” supérflua, pois nem é preciso dizer que o chapeleiro vende chapéus e não os distribui de graça. O terceiro considerou que as palavras “chapeleiro” e “faz chapéus” eram uma tautologia desnecessária, e estas últimas palavras foram descartadas. O quarto sugeriu que a palavra “chapeador” também deveria ser descartada – o chapéu pintado diz claramente quem é John Thompson. Finalmente, o quinto insistiu que não fazia absolutamente nenhuma diferença para o comprador se o chapeleiro se chamava John Thompson ou qualquer outro nome, e sugeriu que essa indicação fosse dispensada. Assim, no final, nada restou na placa, exceto o chapéu. É claro que se as pessoas usassem apenas este tipo de códigos, sem redundância nas mensagens, então todos os “formulários de informação” – livros, relatórios, artigos – seriam extremamente breves. Mas perderiam em clareza e beleza.

As informações podem ser divididas em tipos de acordo com diferentes critérios: em verdade: verdadeiro e falso;

por meio da percepção:

Visual - percebido pelos órgãos da visão;

Auditivo - percebido pelos órgãos auditivos;

Tátil - percebido por receptores táteis;

Olfativo - percebido pelos receptores olfativos;

Gustativo - percebido pelas papilas gustativas.


conforme forma de apresentação:

Texto - transmitido na forma de símbolos destinados a denotar lexemas da língua;

Numérico - na forma de números e sinais que indicam operações matemáticas;

Gráfico - na forma de imagens, objetos, gráficos;

Som - transmissão oral ou gravada de lexemas de linguagem por meio auditivo.


por propósito:

Massa – contém informações triviais e opera com um conjunto de conceitos compreensíveis para a maior parte da sociedade;

Especial - contém um conjunto específico de conceitos quando utilizados, são transmitidas informações que podem não ser compreensíveis para a maior parte da sociedade, mas são necessárias e compreensíveis dentro do restrito grupo social onde essas informações são utilizadas;

Segredo - transmitido a um círculo restrito de pessoas e por meio de canais fechados (protegidos);

Pessoal (privado) - um conjunto de informações sobre uma pessoa que determina o status social e os tipos de interações sociais da população.


por valor:

Relevante - informação que é valiosa em um determinado momento;

Confiável – informações obtidas sem distorção;

Compreensível – informação expressa numa linguagem compreensível para aqueles a quem se destina;

Completo – informações suficientes para tomar a decisão ou entendimento correto;

Útil - a utilidade da informação é determinada pelo sujeito que a recebeu dependendo do escopo de possibilidades de sua utilização.


O valor da informação em diversas áreas do conhecimento

Na teoria da informação, muitos sistemas, métodos, abordagens e ideias estão sendo desenvolvidos atualmente. No entanto, os cientistas acreditam que novas direções na teoria da informação serão adicionadas às modernas e novas ideias surgirão. Como prova da correção de seus pressupostos, eles citam a natureza “viva” e em desenvolvimento da ciência, apontando que a teoria da informação está sendo introduzida de forma surpreendentemente rápida e firme nas mais diversas áreas do conhecimento humano. A teoria da informação penetrou na física, química, biologia, medicina, filosofia, linguística, pedagogia, economia, lógica, ciências técnicas e estética. Segundo os próprios especialistas, a doutrina da informação, que surgiu a partir das necessidades da teoria das comunicações e da cibernética, ultrapassou as suas fronteiras. E agora, talvez, tenhamos o direito de falar de informação como um conceito científico que coloca nas mãos dos pesquisadores um método teórico e de informação com o qual se pode penetrar em muitas ciências sobre a natureza viva e inanimada, sobre a sociedade, que não só permitir olhar para todos os problemas de uma nova perspectiva, mas também ver o que ainda não foi visto. É por isso que o termo “informação” se difundiu em nosso tempo, passando a fazer parte de conceitos como sistema de informação, cultura da informação e até ética da informação.


Muitas disciplinas científicas usam a teoria da informação para destacar novas direções em ciências antigas. Foi assim que surgiram, por exemplo, a geografia da informação, a economia da informação e o direito da informação. Mas o termo “informação” adquiriu uma importância extremamente grande em conexão com o desenvolvimento da mais recente tecnologia informática, a automatização do trabalho mental, o desenvolvimento de novos meios de comunicação e processamento de informação e, especialmente, com o surgimento da ciência da computação. Uma das tarefas mais importantes da teoria da informação é o estudo da natureza e das propriedades da informação, a criação de métodos para o seu processamento, em particular a transformação de uma grande variedade de informação moderna em programas de computador, com a ajuda dos quais a automação ocorre o trabalho mental - uma espécie de fortalecimento da inteligência e, portanto, o desenvolvimento dos recursos intelectuais da sociedade.


A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de “informação” é básico em um curso de informática, mas é impossível defini-lo através de outros conceitos mais “simples”. O conceito de “informação” é utilizado em diversas ciências, e em cada ciência o conceito de “. informação” está associada a diferentes sistemas de conceitos. Informação em biologia: A biologia estuda a natureza viva e o conceito de “informação” está associado ao comportamento adequado dos organismos vivos. Nos organismos vivos, as informações são transmitidas e armazenadas por meio de objetos de diferentes naturezas físicas (estado do DNA), que são considerados signos de alfabetos biológicos. A informação genética é herdada e armazenada em todas as células dos organismos vivos. Abordagem filosófica: Informação é interação, reflexão, cognição. Abordagem cibernética: Informação são as características de um sinal de controle transmitido por uma linha de comunicação.

O papel da informação na filosofia

O tradicionalismo do subjetivo dominou constantemente nas primeiras definições de informação como categoria, conceito, propriedade do mundo material. A informação existe fora da nossa consciência e só pode ser refletida em nossa percepção como resultado da interação: reflexão, leitura, recepção na forma de sinal, estímulo. A informação não é material, como todas as propriedades da matéria. A informação se apresenta na seguinte ordem: matéria, espaço, tempo, sistematicidade, função, etc., que são os conceitos fundamentais de uma reflexão formalizada da realidade objetiva em sua distribuição e variabilidade, diversidade e manifestações. A informação é uma propriedade da matéria e reflete suas propriedades (estado ou capacidade de interagir) e quantidade (medida) por meio da interação.


Do ponto de vista material, a informação é a ordem dos objetos no mundo material. Por exemplo, a ordem das letras em uma folha de papel de acordo com certas regras é uma informação escrita. A ordem dos pontos multicoloridos em uma folha de papel de acordo com certas regras é uma informação gráfica. A ordem das notas musicais é uma informação musical. A ordem dos genes no DNA é informação hereditária. A ordem dos bits em um computador é a informação do computador, etc. e assim por diante. Para realizar a troca de informações é necessária a presença de condições necessárias e suficientes.

As condições necessárias:

A presença de pelo menos dois objetos diferentes do mundo material ou intangível;

A presença de uma propriedade comum entre os objetos que permite identificá-los como portadores de informação;

A presença de uma propriedade específica nos objetos que lhes permite distinguir objetos uns dos outros;

A presença de uma propriedade de espaço que permite determinar a ordem dos objetos. Por exemplo, o layout das informações escritas no papel é uma propriedade específica do papel que permite que as letras sejam organizadas da esquerda para a direita e de cima para baixo.


Só existe uma condição suficiente: a presença de um sujeito capaz de reconhecer informações. Este é o homem e a sociedade humana, sociedades de animais, robôs, etc. Uma mensagem informativa é construída selecionando cópias de objetos de uma base e organizando esses objetos no espaço em uma determinada ordem. O comprimento da mensagem informativa é definido como o número de cópias dos objetos base e é sempre expresso como um número inteiro. É necessário distinguir entre o comprimento de uma mensagem informativa, que é sempre medido em um número inteiro, e a quantidade de conhecimento contida em uma mensagem informativa, que é medida em uma unidade de medida desconhecida. Do ponto de vista matemático, a informação é uma sequência de números inteiros escritos em um vetor. Os números são o número do objeto na base de informações. O vetor é chamado de invariante de informação, pois não depende da natureza física dos objetos básicos. A mesma mensagem informativa pode ser expressa em letras, palavras, frases, arquivos, imagens, notas, músicas, videoclipes ou qualquer combinação de todos os itens acima.

O papel da informação na física

Informação é informação sobre o mundo circundante (objeto, processo, fenômeno, evento), que é objeto de transformação (incluindo armazenamento, transmissão, etc.) e é utilizada para desenvolver comportamento, para tomada de decisão, para gestão ou para aprendizagem.


Os traços característicos da informação são os seguintes:

Este é o recurso mais importante da produção moderna: reduz a necessidade de terra, trabalho, capital e reduz o consumo de matérias-primas e energia. Assim, por exemplo, se você tiver a capacidade de arquivar seus arquivos (ou seja, tiver essas informações), não precisará gastar dinheiro na compra de novos disquetes;

A informação dá vida a novas produções. Por exemplo, a invenção do feixe de laser foi a razão do surgimento e desenvolvimento da produção de discos laser (ópticos);

A informação é uma mercadoria e o vendedor da informação não a perde após a venda. Assim, se um aluno passar ao amigo informações sobre o horário das aulas durante o semestre, ele não perderá esses dados para si;

A informação acrescenta valor a outros recursos, em particular ao trabalho. Na verdade, um trabalhador com ensino superior é mais valorizado do que aquele com ensino secundário.


Como decorre da definição, três conceitos estão sempre associados à informação:

A fonte de informação é aquele elemento do mundo circundante (objeto, processo, fenômeno, evento), cuja informação é objeto de transformação. Assim, a fonte de informação que o leitor deste livro recebe atualmente é a ciência da computação como esfera da atividade humana;

Um consumidor de informação é aquele elemento do mundo circundante que utiliza a informação (para desenvolver comportamentos, tomar decisões, gerir ou aprender). O consumidor desta informação é o próprio leitor;

Um sinal é um meio material que registra informações para transferi-las de uma fonte para um consumidor. Neste caso, o sinal é de natureza eletrônica. Se um aluno retirar este manual da biblioteca, as mesmas informações estarão em papel. Depois de lida e lembrada pelo aluno, a informação adquirirá outro suporte – o biológico, quando for “gravada” na memória do aluno.


O sinal é o elemento mais importante neste circuito. As formas de sua apresentação, bem como as características quantitativas e qualitativas das informações que contém, importantes para o consumidor da informação, são discutidas mais adiante nesta seção do livro. As principais características de um computador como principal ferramenta que mapeia a fonte de informação em um sinal (link 1 na figura) e “traz” o sinal ao consumidor de informação (link 2 na figura) são apresentadas na seção Computador . A estrutura dos procedimentos que implementam as conexões 1 e 2 e compõem o processo de informação é objeto de consideração na parte do Processo de Informação.

Os objetos do mundo material estão em um estado de mudança contínua, caracterizado pela troca de energia entre o objeto e o meio ambiente. Uma mudança no estado de um objeto sempre leva a uma mudança no estado de algum outro objeto ambiental. Este fenômeno, independentemente de como, quais estados e quais objetos mudaram, pode ser considerado como a transmissão de um sinal de um objeto para outro. A alteração do estado de um objeto quando um sinal é transmitido a ele é chamada de registro de sinal.


Um sinal ou sequência de sinais forma uma mensagem que pode ser percebida pelo destinatário de uma forma ou de outra, bem como em um ou outro volume. Informação em física é um termo que generaliza qualitativamente os conceitos de “sinal” e “mensagem”. Se sinais e mensagens podem ser quantificados, então podemos dizer que sinais e mensagens são unidades de medida do volume de informação. A mensagem (sinal) é interpretada de forma diferente por sistemas diferentes. Por exemplo, um bipe sucessivamente longo e dois curtos na terminologia do código Morse é a letra de (ou D), na terminologia BIOS do AWARD - um mau funcionamento da placa de vídeo.

O papel da informação na matemática

Em matemática, a teoria da informação (teoria matemática da comunicação) é uma seção da matemática aplicada que define o conceito de informação, suas propriedades e estabelece relações limitantes para sistemas de transmissão de dados. Os principais ramos da teoria da informação são a codificação de fonte (codificação de compressão) e a codificação de canal (resistente a ruído). A matemática é mais do que uma disciplina científica. Cria uma linguagem unificada para toda a ciência.


O assunto da pesquisa matemática são objetos abstratos: número, função, vetor, conjunto e outros. Além disso, a maioria deles é introduzida axiomaticamente (axioma), ou seja, sem qualquer ligação com outros conceitos e sem qualquer definição.

A informação não faz parte do estudo da matemática. No entanto, a palavra "informação" é usada em termos matemáticos - autoinformação e informação mútua, relacionada à parte abstrata (matemática) da teoria da informação. No entanto, na teoria matemática o conceito de “informação” está associado exclusivamente a objetos abstratos - variáveis ​​​​aleatórias, enquanto na moderna teoria da informação este conceito é considerado de forma muito mais ampla - como uma propriedade de objetos materiais. A conexão entre esses dois termos idênticos é inegável. Foi o aparato matemático dos números aleatórios que foi utilizado pelo autor da teoria da informação, Claude Shannon. Ele mesmo quer dizer com o termo “informação” algo fundamental (irredutível). A teoria de Shannon pressupõe intuitivamente que a informação tem conteúdo. A informação reduz a incerteza geral e a entropia da informação. A quantidade de informação é mensurável. No entanto, ele alerta os pesquisadores contra a transferência mecânica de conceitos de sua teoria para outras áreas da ciência.


“A busca por formas de aplicação da teoria da informação em outros campos da ciência não se resume a uma transferência trivial de termos de um campo da ciência para outro. Essa busca se realiza em um longo processo de apresentação de novas hipóteses e seus testes experimentais. .” K.Shannon.

O papel da informação na cibernética

O fundador da cibernética, Norbert Wiener, falou sobre informações como esta:

Informação não é matéria nem energia, informação é informação." Mas a definição básica de informação, que ele deu em vários de seus livros, é a seguinte: informação é uma designação de conteúdo que recebemos do mundo externo, no processo de adaptando a nós e aos nossos sentimentos.

A informação é o conceito básico da cibernética, tal como a informação económica é o conceito básico da cibernética económica.


Existem muitas definições deste termo, são complexas e contraditórias. A razão, obviamente, é que a cibernética como fenômeno é estudada por diferentes ciências, e a cibernética é apenas a mais jovem delas. A informação é objeto de estudo de ciências como a ciência da gestão, a estatística matemática, a genética, a teoria da mídia de massa (impressa, rádio, televisão), a ciência da computação, que trata dos problemas da informação científica e técnica, etc. recentemente Os filósofos demonstram grande interesse pelos problemas da energia: tendem a considerar a energia como uma das principais propriedades universais da matéria, associada ao conceito de reflexão. Com todas as interpretações do conceito de informação, ele pressupõe a existência de dois objetos: a fonte da informação e o consumidor (destinatário) da informação. A transmissão da informação de um para outro ocorre por meio de sinais, que, em geral,. pode não ter qualquer ligação física com o seu significado: esta comunicação é determinada por acordo. Por exemplo, tocar o sino do veche significava que era preciso se reunir na praça, mas para quem não sabia dessa ordem ele não comunicou nenhuma informação.


Numa situação de sino veche, quem participa do acordo sobre o significado do sinal sabe que neste momento pode haver duas alternativas: a reunião veche acontecerá ou não. Ou, na linguagem da teoria da informação, um evento incerto (veche) tem dois resultados. O sinal recebido leva a uma diminuição da incerteza: a pessoa agora sabe que o evento (noite) tem apenas um resultado - acontecerá. Porém, se fosse sabido de antemão que a reunião aconteceria em tal e tal hora, a campainha não anunciava nada de novo. Segue-se que quanto menos provável (ou seja, mais inesperada) a mensagem, mais informação ela contém, e vice-versa, quanto maior a probabilidade do resultado antes do evento ocorrer, menos informação ela contém. Aproximadamente o mesmo raciocínio foi feito na década de 40. Século XX ao surgimento de uma teoria estatística, ou “clássica” da informação, que define o conceito de informação através da medida de redução da incerteza do conhecimento sobre a ocorrência de um evento (essa medida foi chamada de entropia). As origens desta ciência foram N. Wiener, K. Shannon e os cientistas soviéticos A. N. Kolmogorov, V. A. Kotelnikov e outros. Eles foram capazes de derivar leis matemáticas para medir a quantidade de informação e, portanto, conceitos como capacidade de canal e ., capacidade de armazenamento. de dispositivos I., etc., que serviram como um poderoso incentivo para o desenvolvimento da cibernética como ciência e da tecnologia de computação eletrônica como uma aplicação prática das conquistas da cibernética.


Quanto à determinação do valor e da utilidade da informação para o destinatário, ainda há muita coisa por resolver e pouco clara. Se partirmos das necessidades da gestão económica e, portanto, da cibernética económica, então a informação pode ser definida como toda aquela informação, conhecimento e mensagens que ajudam a resolver um determinado problema de gestão (ou seja, reduzir a incerteza dos seus resultados). Então, abrem-se algumas oportunidades para avaliar a informação: quanto mais útil e valiosa ela for, mais cedo ou com menor custo levará à solução do problema. O conceito de informação está próximo do conceito de dados. No entanto, há uma diferença entre eles: os dados são sinais dos quais ainda é necessário extrair informações. O processamento dos dados é o processo de colocá-los em uma forma adequada para isso.


O processo de sua transmissão da fonte ao consumidor e a percepção como informação podem ser considerados como passando por três filtros:

Física ou estatística (limitação puramente quantitativa da capacidade do canal, independentemente do conteúdo dos dados, ou seja, do ponto de vista sintático);

Semântica (seleção daqueles dados que podem ser compreendidos pelo destinatário, ou seja, correspondem ao tesauro de seu conhecimento);

Pragmático (seleção entre as informações compreendidas daquelas que são úteis para a resolução de um determinado problema).

Isto é claramente demonstrado no diagrama retirado do livro de E. G. Yasin sobre informação económica. Assim, distinguem-se três aspectos do estudo dos problemas linguísticos - sintático, semântico e pragmático.


De acordo com o conteúdo, a informação é dividida em sociopolítica, socioeconómica (incluindo informação económica), científica e técnica, etc. Em geral, existem muitas classificações de informação que se baseiam em várias bases; Via de regra, devido à proximidade dos conceitos, as classificações dos dados são construídas da mesma forma. Por exemplo, as informações são divididas em estáticas (constantes) e dinâmicas (variáveis), e os dados são divididos em constantes e variáveis. Outra divisão são as informações de saída primárias, derivadas (os dados também são classificados da mesma maneira). A terceira divisão é I. controlar e informar. Quarto – redundante, útil e falso. Quinto - completo (contínuo) e seletivo. Esta ideia de Wiener dá uma indicação direta da objetividade da informação, ou seja, sua existência na natureza é independente da consciência humana (percepção).

A cibernética moderna define a informação objetiva como a propriedade objetiva dos objetos e fenômenos materiais de gerar uma variedade de estados que, por meio das interações fundamentais da matéria, são transmitidos de um objeto (processo) para outro e ficam impressos em sua estrutura. Um sistema material na cibernética é considerado como um conjunto de objetos que podem estar em estados diferentes, mas o estado de cada um deles é determinado pelos estados de outros objetos do sistema.

Na natureza, muitos estados de um sistema representam informações; os próprios estados representam o código primário, ou código-fonte. Assim, todo sistema material é uma fonte de informação. A cibernética define informação subjetiva (semântica) como o significado ou conteúdo de uma mensagem.

O papel da informação na ciência da computação

O tema da ciência são os dados: métodos de sua criação, armazenamento, processamento e transmissão. Conteúdo (também: “preenchimento” (no contexto), “conteúdo do site”) é um termo que significa todos os tipos de informação (texto e multimídia - imagens, áudio, vídeo) que compõem o conteúdo (visualizado, para o visitante, conteúdo ) do site. É utilizado para separar o conceito de informação que compõe a estrutura interna de uma página/site (código) daquilo que acabará sendo exibido na tela.

A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de “informação” é básico em um curso de informática, mas é impossível defini-lo através de outros conceitos mais “simples”.


As seguintes abordagens para determinar informações podem ser distinguidas:

Tradicional (comum) - usado em ciência da computação: Informação é informação, conhecimento, mensagens sobre o estado de coisas que uma pessoa percebe do mundo exterior usando os sentidos (visão, audição, paladar, olfato, tato).

Probabilística - utilizada na teoria da informação: Informação é informação sobre objetos e fenômenos ambientais, seus parâmetros, propriedades e estado, que reduzem o grau de incerteza e conhecimento incompleto sobre eles.


As informações são armazenadas, transmitidas e processadas de forma simbólica (sinal). A mesma informação pode ser apresentada de diferentes formas:

Escrita de sinais, constituída por vários sinais, entre os quais se distinguem os simbólicos na forma de texto, números, especiais. personagens; gráfico; tabular, etc.;

Na forma de gestos ou sinais;

Forma verbal oral (conversa).


As informações são apresentadas por meio de linguagens como sistemas de signos, que são construídos com base em um alfabeto específico e possuem regras para realizar operações com signos. A linguagem é um sistema de sinais específico para apresentar informações. Existir:

As línguas naturais são línguas faladas na forma falada e escrita. Em alguns casos, a linguagem falada pode ser substituída pela linguagem das expressões faciais e dos gestos, pela linguagem dos sinais especiais (por exemplo, sinais de trânsito);

Linguagens formais são linguagens especiais para diversas áreas da atividade humana, que se caracterizam por um alfabeto estritamente fixo e regras gramaticais e sintáticas mais rígidas. Esta é a linguagem da música (notas), a linguagem da matemática (números, símbolos matemáticos), sistemas numéricos, linguagens de programação, etc. A base de qualquer idioma é o alfabeto – um conjunto de símbolos/sinais. O número total de símbolos do alfabeto é geralmente chamado de potência do alfabeto.


A mídia de informação é um meio ou corpo físico para transmitir, armazenar e reproduzir informações. (São sinais elétricos, luminosos, térmicos, sonoros, de rádio, discos magnéticos e laser, publicações impressas, fotografias, etc.)

Os processos de informação são processos associados ao recebimento, armazenamento, processamento e transmissão de informações (ou seja, ações realizadas com informações). Aqueles. São processos durante os quais muda o conteúdo da informação ou a forma de sua apresentação.

Para garantir o processo de informação, são necessários uma fonte de informação, um canal de comunicação e um consumidor de informação. A fonte transmite (envia) informações e o receptor as recebe (percebe). A informação transmitida viaja da fonte ao receptor por meio de um sinal (código). Alterar o sinal permite obter informações.

Sendo objeto de transformação e utilização, a informação caracteriza-se pelas seguintes propriedades:

Sintaxe é uma propriedade que determina a forma como a informação é apresentada em um meio (em um sinal). Assim, essas informações são apresentadas em meio eletrônico em fonte específica. Aqui você também pode considerar parâmetros de apresentação de informações como estilo e cor da fonte, tamanho, espaçamento entre linhas, etc. A seleção dos parâmetros necessários como propriedades sintáticas é obviamente determinada pelo método de transformação pretendido. Por exemplo, para uma pessoa com deficiência visual, o tamanho e a cor da fonte são importantes. Se você planeja inserir este texto em um computador por meio de um scanner, o tamanho do papel é importante;


A semântica é uma propriedade que determina o significado da informação como a correspondência do sinal com o mundo real. Assim, a semântica do sinal “ciência da computação” reside na definição dada anteriormente. A semântica pode ser considerada como algum acordo, conhecido do consumidor da informação, sobre o que cada sinal significa (a chamada regra de interpretação). Por exemplo, é a semântica dos sinais que um motorista novato estuda, estudando as regras da estrada, aprendendo os sinais de trânsito (neste caso, os próprios sinais são os sinais). A semântica das palavras (sinais) é aprendida por um aluno de uma língua estrangeira. Podemos dizer que o objetivo do ensino da informática é estudar a semântica dos diversos sinais - essência dos conceitos-chave desta disciplina;


A pragmática é uma propriedade que determina a influência da informação no comportamento do consumidor. Assim, a pragmática das informações recebidas pelo leitor deste livro é, no mínimo, a aprovação no exame de informática. Gostaria de acreditar que a pragmática deste trabalho não se limitará a isso, mas servirá para a continuação da formação e da atividade profissional do leitor.

Deve-se notar que sinais que diferem na sintaxe podem ter a mesma semântica. Por exemplo, os sinais “computador” e “computador” significam um dispositivo eletrônico para conversão de informações. Nesse caso, costumamos falar em sinonímia de sinal. Por outro lado, um sinal (isto é, informação com uma propriedade sintática) pode ter uma pragmática diferente para os consumidores e uma semântica diferente. Assim, um sinal de trânsito conhecido como “tijolo” e com uma semântica muito específica (“entrada proibida”) significa para um motorista uma proibição de entrada, mas não tem efeito sobre um pedestre. Ao mesmo tempo, o sinal de “chave” pode ter semântica diferente: uma clave de sol, uma clave de mola, uma chave para abrir uma fechadura, uma chave usada na informática para codificar um sinal a fim de protegê-lo de acesso não autorizado (em neste caso falam em homonímia de sinal). Existem sinais - antônimos que possuem semântica oposta. Por exemplo, “frio” e “quente”, “rápido” e “lento”, etc.


O objeto de estudo da ciência da computação são os dados: métodos de sua criação, armazenamento, processamento e transmissão. E a própria informação registrada nos dados, seu significado significativo, interessa aos usuários de sistemas de informação que são especialistas em diversas ciências e áreas de atividade: um médico está interessado em informação médica, um geólogo está interessado em informação geológica, um empresário está interessado em informações comerciais, etc. (Em particular, um cientista da computação está interessado em informações sobre como trabalhar com dados).

Semiótica - ciência da informação

A informação não pode ser imaginada sem o seu recebimento, processamento, transmissão, etc., ou seja, fora do quadro da troca de informações. Todos os atos de troca de informações são realizados por meio de símbolos ou signos, com a ajuda dos quais um sistema influencia outro. Portanto, a principal ciência que estuda a informação é a semiótica - a ciência dos signos e dos sistemas de signos na natureza e na sociedade (teoria dos signos). Em cada acto de troca de informação encontram-se três “participantes”, três elementos: um signo, um objecto que designa e um destinatário (utilizador) do signo.


Dependendo das relações entre os elementos considerados, a semiótica é dividida em três seções: sintática, semântica e pragmática. A sintática estuda os signos e as relações entre eles. Ao mesmo tempo, abstrai o conteúdo do sinal e o seu significado prático para o destinatário. A semântica estuda a relação entre os signos e os objetos que eles denotam, ao mesmo tempo que abstrai do destinatário dos signos e do valor destes últimos: para ele. É claro que estudar os padrões de representação semântica de objetos em signos é impossível sem levar em conta e utilizar os padrões gerais de construção de quaisquer sistemas de signos estudados pela sintática. A pragmática estuda a relação entre os signos e seus usuários. No âmbito da pragmática, são estudadas todos os fatores que distinguem um ato de troca de informações de outro, todas as questões sobre os resultados práticos do uso da informação e seu valor para o destinatário.


Neste caso, muitos aspectos das relações dos signos entre si e com os objetos que denotam são inevitavelmente afetados. Assim, as três seções da semiótica correspondem a três níveis de abstração (distração) das características de atos específicos de troca de informações. O estudo da informação em toda a sua diversidade corresponde ao nível pragmático. Distraindo-nos do destinatário da informação, excluindo-o da consideração, passamos a estudá-la ao nível semântico. Com a abstração do conteúdo dos signos, a análise da informação é transferida para o nível da sintática. Essa interpenetração das principais seções da semiótica, associada a diferentes níveis de abstração, pode ser representada por meio do diagrama “Três seções da semiótica e sua inter-relação”. A medição da informação é realizada em três aspectos: sintático, semântico e pragmático. A necessidade de dimensões tão diferentes de informação, como será mostrado a seguir, é ditada pela prática de projetar e organizar o trabalho dos sistemas de informação. Consideremos uma situação típica de produção.


No final do turno, o planejador do local prepara os dados do cronograma de produção. Esses dados chegam ao centro de informação e informática (ICC) da empresa, onde são processados, e na forma de relatórios sobre o estado atual da produção são emitidos aos gestores. Com base nos dados recebidos, o gerente da oficina toma a decisão de alterar o plano de produção para o próximo período de planejamento ou tomar quaisquer outras medidas organizacionais. Obviamente, para o gestor da loja, a quantidade de informação contida no resumo depende da magnitude do impacto económico recebido da sua utilização na tomada de decisões, da utilidade da informação recebida. Para o planejador do site, a quantidade de informações em uma mesma mensagem é determinada pela precisão de sua correspondência com a situação real do site e pelo grau de surpresa dos fatos relatados. Quanto mais inesperados eles forem, mais rápido você precisará reportá-los à gerência e mais informações haverá nesta mensagem. Para os trabalhadores da ICC, o número de caracteres e o comprimento da mensagem que transporta a informação serão de suma importância, pois é este que determina o tempo de carregamento dos equipamentos informáticos e dos canais de comunicação. Ao mesmo tempo, eles praticamente não estão interessados ​​nem na utilidade da informação nem na medida quantitativa do valor semântico da informação.


Naturalmente, ao organizar um sistema de gestão da produção e construir modelos de seleção de decisões, utilizaremos a utilidade da informação como medida da informatividade das mensagens. Ao construir um sistema de contabilidade e relatórios que proporcione a gestão dos dados sobre o andamento do processo produtivo, a novidade das informações recebidas deve ser tomada como uma medida da quantidade de informações. A organização dos procedimentos de processamento mecânico da informação exige a medição do volume de mensagens na forma do número de caracteres processados. Estas três abordagens fundamentalmente diferentes para medir a informação não são contraditórias ou mutuamente exclusivas. Pelo contrário, ao medirem a informação em diferentes escalas, permitem uma avaliação mais completa e abrangente do conteúdo informativo de cada mensagem e organizam de forma mais eficaz um sistema de gestão da produção. Segundo a adequada expressão do Prof. NÃO. Kobrinsky, quando se trata da organização racional dos fluxos de informação, a quantidade, a novidade e a utilidade da informação estão tão interligadas quanto a quantidade, a qualidade e o custo dos produtos em produção.

Informações no mundo material

A informação é um dos conceitos gerais associados à matéria. A informação existe em qualquer objeto material na forma de vários de seus estados e é transferida de objeto para objeto no processo de sua interação. A existência da informação como propriedade objetiva da matéria decorre logicamente das propriedades fundamentais conhecidas da matéria - estrutura, mudança contínua (movimento) e interação de objetos materiais.


A estrutura da matéria se manifesta como o desmembramento interno da integridade, a ordem natural de conexão dos elementos dentro do todo. Em outras palavras, qualquer objeto material, desde a partícula subatômica do Meta Universo (Big Bang) como um todo, é um sistema de subsistemas interligados. Devido ao movimento contínuo, entendido em sentido amplo como movimento no espaço e desenvolvimento no tempo, os objetos materiais mudam de estado. Os estados dos objetos também mudam durante as interações com outros objetos. O conjunto de estados de um sistema material e todos os seus subsistemas representa informações sobre o sistema.


Estritamente falando, devido à incerteza, ao infinito e às propriedades da estrutura, a quantidade de informação objetiva em qualquer objeto material é infinita. Esta informação é chamada de completa. Contudo, é possível distinguir níveis estruturais com conjuntos finitos de estados. A informação que existe em nível estrutural com um número finito de estados é chamada de privada. Para informações privadas, o conceito de quantidade de informação faz sentido.

A partir da apresentação acima, é lógico e simples selecionar uma unidade de medida para a quantidade de informação. Vamos imaginar um sistema que só pode estar em dois estados igualmente prováveis. Vamos atribuir o código “1” a um deles e “0” ao outro. Esta é a quantidade mínima de informações que o sistema pode conter. É uma unidade de medida de informação e é chamada de bit. Existem outros métodos e unidades mais difíceis de definir para medir a quantidade de informação.


Dependendo da forma material do meio, a informação é de dois tipos principais - analógica e discreta. As informações analógicas mudam continuamente ao longo do tempo e assumem valores de um continuum de valores. Informações discretas mudam em alguns momentos e assumem valores de um determinado conjunto de valores. Qualquer objeto ou processo material é a principal fonte de informação. Todos os seus estados possíveis constituem o código-fonte da informação. O valor instantâneo dos estados é representado como um símbolo (“letra”) deste código. Para que a informação seja transmitida de um objeto para outro como receptor, é necessário que exista algum tipo de meio material intermediário que interaja com a fonte. Tais portadores na natureza, via de regra, são processos de propagação rápida da estrutura das ondas - radiação cósmica, gama e raios X, ondas eletromagnéticas e sonoras, potenciais (e talvez ondas ainda não descobertas) do campo gravitacional. Quando a radiação eletromagnética interage com um objeto como resultado de absorção ou reflexão, seu espectro muda, ou seja, as intensidades de alguns comprimentos de onda mudam. Os harmônicos das vibrações sonoras também mudam durante as interações com os objetos. A informação também é transmitida por meio de interação mecânica, mas a interação mecânica, via de regra, leva a grandes mudanças na estrutura dos objetos (até sua destruição), e a informação fica muito distorcida. A distorção da informação durante sua transmissão é chamada de desinformação.


A transferência da informação original para a estrutura do meio é chamada de codificação. Neste caso, o código-fonte é convertido em código da operadora. O meio com o código-fonte transferido para ele na forma de um código portador é chamado de sinal. O receptor de sinal possui seu próprio conjunto de estados possíveis, que é chamado de código receptor. Um sinal, interagindo com um objeto receptor, muda seu estado. O processo de conversão de um código de sinal em um código receptor é chamado de decodificação. A transferência de informações de uma fonte para um receptor pode ser considerada como interação de informações. A interação de informações é fundamentalmente diferente de outras interações. Em todas as outras interações de objetos materiais, ocorre uma troca de matéria e (ou) energia. Nesse caso, um dos objetos perde matéria ou energia e o outro a ganha. Esta propriedade das interações é chamada de simetria. Durante a interação da informação, o receptor recebe a informação, mas a fonte não a perde. A interação da informação é assimétrica. A informação objetiva em si não é material, é uma propriedade da matéria, como estrutura, movimento, e existe na mídia material na forma de seus próprios códigos.

Informações sobre a vida selvagem

A vida selvagem é complexa e diversificada. As fontes e receptores de informações nele contidos são os organismos vivos e suas células. Um organismo possui uma série de propriedades que o distinguem dos objetos materiais inanimados.


Básico:

Troca contínua de matéria, energia e informação com o meio ambiente;

Irritabilidade, capacidade do corpo de perceber e processar informações sobre mudanças no ambiente e no ambiente interno do corpo;

Excitabilidade, capacidade de responder a estímulos;

Auto-organização, manifestada como mudanças no corpo para adaptação às condições ambientais.


Um organismo, considerado um sistema, possui uma estrutura hierárquica. Essa estrutura relativa ao próprio organismo é dividida em níveis internos: molecular, celular, orgânico e, por fim, o próprio organismo. No entanto, o organismo também interage acima dos sistemas vivos dos organismos, cujos níveis são a população, o ecossistema e toda a natureza viva como um todo (biosfera). Fluxos não apenas de matéria e energia, mas também de informação circulam entre todos esses níveis. As interações de informação na natureza viva ocorrem da mesma forma que na natureza inanimada. Ao mesmo tempo, a natureza viva em processo de evolução criou uma grande variedade de fontes, portadores e receptores de informação.


A reação às influências do mundo externo se manifesta em todos os organismos, pois é causada pela irritabilidade. Nos organismos superiores, a adaptação ao ambiente externo é uma atividade complexa, que só é eficaz com informações suficientemente completas e oportunas sobre o ambiente. Os receptores das informações do ambiente externo são os órgãos dos sentidos, que incluem a visão, a audição, o olfato, o paladar, o tato e o aparelho vestibular. Na estrutura interna dos organismos existem numerosos receptores internos associados ao sistema nervoso. O sistema nervoso consiste em neurônios cujos processos (axônios e dendritos) são análogos aos canais de transmissão de informações. Os principais órgãos que armazenam e processam informações nos vertebrados são a medula espinhal e o cérebro. De acordo com as características dos sentidos, as informações percebidas pelo corpo podem ser classificadas em visuais, auditivas, gustativas, olfativas e táteis.


Quando o sinal atinge a retina do olho humano, ele excita as células constituintes de uma maneira especial. Os impulsos nervosos das células são transmitidos através de axônios ao cérebro. O cérebro lembra dessa sensação na forma de uma certa combinação de estados de seus neurônios constituintes. (O exemplo continua na seção “Informação na Sociedade Humana”). Ao acumular informações, o cérebro cria um modelo de informação coerente do mundo circundante em sua estrutura. Na natureza viva, uma característica importante para um organismo que recebe informações é a sua disponibilidade. A quantidade de informação que o sistema nervoso humano é capaz de enviar ao cérebro durante a leitura de textos é de aproximadamente 1 bit por 1/16 s.

O estudo dos organismos é complicado pela sua complexidade. A abstração da estrutura como um conjunto matemático, aceitável para objetos inanimados, dificilmente é aceitável para um organismo vivo, porque para criar um modelo abstrato mais ou menos adequado de um organismo é necessário levar em conta todos os aspectos hierárquicos níveis de sua estrutura. Portanto, é difícil introduzir uma medida da quantidade de informação. É muito difícil determinar as ligações entre os componentes da estrutura. Se se sabe qual órgão é a fonte da informação, então qual é o sinal e qual é o receptor?


Antes do advento dos computadores, a biologia, que trata do estudo dos organismos vivos, utilizava apenas qualitativos, ou seja, modelos descritivos. Num modelo qualitativo, é quase impossível levar em conta as conexões de informação entre os componentes da estrutura. A tecnologia da computação eletrônica tem possibilitado a aplicação de novos métodos na pesquisa biológica, em particular, o método de modelagem de máquinas, que envolve uma descrição matemática de fenômenos e processos conhecidos que ocorrem no corpo, acrescentando-lhes hipóteses sobre alguns processos desconhecidos e calculando possíveis comportamentos padrões do organismo. As opções resultantes são comparadas com o comportamento real do organismo, o que permite determinar a verdade ou falsidade das hipóteses apresentadas. Esses modelos também podem levar em conta a interação de informações. Os processos de informação que garantem a existência da própria vida são extremamente complexos. E embora seja intuitivamente claro que esta propriedade está diretamente relacionada à formação, armazenamento e transmissão de informações completas sobre a estrutura do organismo, por algum tempo uma descrição abstrata desse fenômeno parecia impossível. No entanto, os processos de informação que garantem a existência desta propriedade foram parcialmente revelados através da decifração do código genético e da leitura dos genomas de vários organismos.

Informação na sociedade humana

O desenvolvimento da matéria no processo de movimento visa complicar a estrutura dos objetos materiais. Uma das estruturas mais complexas é o cérebro humano. Até agora, esta é a única estrutura que conhecemos que possui uma propriedade que o próprio homem chama de consciência. Falando em informação, nós, como seres pensantes, queremos dizer a priori que a informação, além de sua presença na forma de sinais que recebemos, também tem algum significado. Ao formar em sua mente um modelo do mundo circundante como um conjunto interconectado de modelos de seus objetos e processos, uma pessoa usa conceitos semânticos em vez de informações. O significado é a essência de qualquer fenômeno, que não coincide consigo mesmo e o conecta com o contexto mais amplo da realidade. A própria palavra indica diretamente que o conteúdo semântico da informação só pode ser formado por receptores pensantes da informação. Na sociedade humana, não é a informação em si que tem importância decisiva, mas o seu conteúdo semântico.


Exemplo (continuação). Tendo experimentado tal sensação, a pessoa atribui o conceito “tomate” ao objeto e o conceito “cor vermelha” ao seu estado. Além disso, sua consciência fixa a conexão: “tomate” - “vermelho”. Este é o significado do sinal recebido. (Exemplo continuado abaixo nesta seção). A capacidade do cérebro de criar conceitos significativos e conexões entre eles é a base da consciência. A consciência pode ser considerada como um modelo semântico autodesenvolvido do mundo circundante. Significado não é informação. A informação existe apenas em um meio tangível. A consciência humana é considerada imaterial. O significado existe na mente humana na forma de palavras, imagens e sensações. Uma pessoa pode pronunciar palavras não apenas em voz alta, mas também “para si mesma”. Ele também pode criar (ou lembrar) imagens e sensações “em sua própria mente”. No entanto, ele pode recuperar informações correspondentes a esse significado falando ou escrevendo palavras.

Exemplo (continuação). Se as palavras “tomate” e “vermelho” são o significado dos conceitos, então onde está a informação? A informação está contida no cérebro na forma de certos estados de seus neurônios. Também está contido em texto impresso composto por essas palavras e, ao codificar letras com código binário de três bits, seu número é de 120 bits. Se você disser as palavras em voz alta, haverá muito mais informações, mas o significado permanecerá o mesmo. A imagem visual carrega a maior quantidade de informações. Isso se reflete até no folclore - “é melhor ver uma vez do que ouvir cem vezes”. A informação assim restaurada é chamada de informação semântica, pois codifica o significado de algumas informações primárias (semântica). Ao ouvir (ou ver) uma frase falada (ou escrita) em um idioma que uma pessoa não conhece, ela recebe informações, mas não consegue determinar seu significado. Portanto, para transmitir o conteúdo semântico da informação, são necessários alguns acordos entre a fonte e o receptor sobre o conteúdo semântico dos sinais, ou seja, palavras Tais acordos podem ser alcançados através da comunicação. A comunicação é uma das condições mais importantes para a existência da sociedade humana.

No mundo moderno, a informação é um dos recursos mais importantes e, ao mesmo tempo, um dos motores do desenvolvimento da sociedade humana. Os processos de informação que ocorrem no mundo material, na natureza viva e na sociedade humana são estudados (ou pelo menos levados em consideração) por todas as disciplinas científicas, da filosofia ao marketing. A crescente complexidade dos problemas de investigação científica levou à necessidade de atrair grandes equipas de cientistas de diferentes especialidades para os resolver. Portanto, quase todas as teorias discutidas abaixo são interdisciplinares. Historicamente, o estudo da informação em si tem sido realizado por dois ramos complexos da ciência - a cibernética e a ciência da computação.


A cibernética moderna é um ramo multidisciplinar da ciência que estuda sistemas altamente complexos, como:

Sociedade humana (cibernética social);

Economia (cibernética económica);

Organismo vivo (cibernética biológica);

O cérebro humano e sua função é a consciência (inteligência artificial).


A informática, que se formou como ciência em meados do século passado, separou-se da cibernética e se dedica à pesquisa na área de métodos de obtenção, armazenamento, transmissão e processamento de informação semântica. Ambas as indústrias usam várias teorias científicas subjacentes. Isso inclui a teoria da informação e suas seções - teoria da codificação, teoria dos algoritmos e teoria dos autômatos. A pesquisa do conteúdo semântico da informação é baseada em um conjunto de teorias científicas sob o nome geral de semiótica da informação, que é uma teoria complexa, principalmente matemática, que inclui uma descrição e avaliação de métodos de recuperação, transmissão, armazenamento e classificação de informações. Considera os meios de informação como elementos de um conjunto abstrato (matemático), e as interações entre os meios como forma de ordenar os elementos desse conjunto. Esta abordagem permite descrever formalmente o código de informação, ou seja, definir um código abstrato e estudá-lo por meio de métodos matemáticos. Para esses estudos ele utiliza métodos de teoria das probabilidades, estatística matemática, álgebra linear, teoria dos jogos e outras teorias matemáticas.


Os fundamentos desta teoria foram lançados pelo cientista americano E. Hartley em 1928, que determinou a medida da quantidade de informação para determinados problemas de comunicação. Mais tarde, a teoria foi significativamente desenvolvida pelo cientista americano K. Shannon, pelos cientistas russos A.N. Kolmogorov, V.M. Glushkov e outros. A teoria da informação moderna inclui seções como teoria da codificação, teoria dos algoritmos, teoria dos autômatos digitais (veja abaixo) e algumas outras. cientista M. Mazur Toda pessoa conhece o conceito de algoritmo, mesmo sem saber. Aqui está um exemplo de algoritmo informal: “Corte os tomates em círculos ou fatias. Coloque neles a cebola picada, despeje o óleo vegetal, polvilhe com pimentão picado e mexa. Antes de comer polvilhe com sal, coloque numa saladeira e decore com salsa.” (Salada de tomate).


As primeiras regras para resolver problemas aritméticos na história da humanidade foram desenvolvidas por um dos famosos cientistas da antiguidade, Al-Khorezmi, no século IX dC. Em sua homenagem, as regras formalizadas para atingir qualquer objetivo são chamadas de algoritmos. O tema da teoria dos algoritmos é encontrar métodos para construir e avaliar algoritmos computacionais e de controle eficazes (inclusive universais) para processamento de informações. Para fundamentar tais métodos, a teoria dos algoritmos utiliza o aparato matemático da teoria da informação. O conceito científico moderno de algoritmos como métodos de processamento de informação foi introduzido nos trabalhos de E. Post e A. Turing na década de 20 do século XX (Turing). Máquina). Os cientistas russos A. Markov (Algoritmo Normal de Markov) e A. Kolmogorov deram uma grande contribuição para o desenvolvimento da teoria dos algoritmos. A teoria dos autômatos é um ramo da cibernética teórica que estuda modelos matemáticos de dispositivos realmente existentes ou fundamentalmente possíveis que processam informações discretas. em momentos discretos no tempo.


O conceito de autômato surgiu na teoria dos algoritmos. Se existem alguns algoritmos universais para resolver problemas computacionais, então também deve haver dispositivos (embora abstratos) para implementar tais algoritmos. Na verdade, uma máquina de Turing abstrata, considerada na teoria dos algoritmos, é ao mesmo tempo um autômato definido informalmente. A justificativa teórica para a construção de tais dispositivos é o tema da teoria dos autômatos. A teoria dos autômatos utiliza o aparato das teorias matemáticas - álgebra, lógica matemática, análise combinatória, teoria dos grafos, teoria das probabilidades, etc. , é a principal base teórica para a criação de computadores eletrônicos e sistemas de controle automatizados. A semiótica é um complexo de teorias científicas que estuda as propriedades dos sistemas de signos. Os resultados mais significativos foram alcançados na seção de semiótica - semântica. O tema da pesquisa semântica é o conteúdo semântico da informação.


Um sistema de signos é considerado um sistema de objetos concretos ou abstratos (sinais, palavras), a cada um dos quais um certo significado está associado de uma certa maneira. Em teoria, está provado que pode haver duas comparações desse tipo. O primeiro tipo de correspondência determina diretamente o objeto material que esta palavra denota e é chamado de denotação (ou, em algumas obras, nomeado). O segundo tipo de correspondência determina o significado de um signo (palavra) e é chamado de conceito. Ao mesmo tempo, são estudadas propriedades de comparações como “significado”, “verdade”, “definibilidade”, “seguimento”, “interpretação”, etc. da semântica, delineada por G. V. Leibniz e F de Saussure no século XIX, formulada e desenvolvida por C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), etc. A principal conquista da teoria é a criação de um aparato de análise semântica que permite representar o significado de um texto em uma linguagem natural na forma de um registro em alguma linguagem semântica (semântica) formalizada. A análise semântica é a base para a criação de dispositivos. (programas) para tradução automática de uma língua natural para outra.

As informações são armazenadas transferindo-as para alguma mídia tangível. A informação semântica registrada em um meio de armazenamento tangível é chamada de documento. A humanidade aprendeu a armazenar informações há muito tempo. As formas mais antigas de armazenamento de informações utilizavam a disposição de objetos - conchas e pedras na areia, nós em uma corda. Um desenvolvimento significativo desses métodos foi a escrita - uma representação gráfica de símbolos em pedra, argila, papiro e papel. A invenção da impressão foi de grande importância no desenvolvimento dessa direção. Ao longo de sua história, a humanidade acumulou uma enorme quantidade de informações em bibliotecas, arquivos, periódicos e outros documentos escritos.


Atualmente, o armazenamento de informações na forma de sequências de caracteres binários ganhou particular importância. Para implementar esses métodos, vários dispositivos de armazenamento são usados. Eles são o elo central dos sistemas de armazenamento de informações. Além deles, tais sistemas utilizam meios de busca de informações (motor de busca), meios de obtenção de informações (sistemas de informação e referência) e meios de exibição de informações (dispositivo de saída). Formados de acordo com a finalidade da informação, tais sistemas de informação formam bases de dados, bancos de dados e uma base de conhecimento.

A transferência de informação semântica é o processo de sua transferência espacial da fonte para o destinatário (destinatário). O homem aprendeu a transmitir e receber informações ainda antes de armazená-las. A fala é um método de transmissão que nossos ancestrais distantes usavam em contato direto (conversa) - ainda o usamos agora. Para transmitir informações a longas distâncias, é necessário utilizar processos de informação muito mais complexos. Para realizar tal processo, a informação deve ser formatada (apresentada) de alguma forma. Para apresentar informações, são utilizados vários sistemas de signos - conjuntos de símbolos semânticos pré-determinados: objetos, imagens, palavras escritas ou impressas da linguagem natural. A informação semântica sobre qualquer objeto, fenômeno ou processo apresentado com a ajuda deles é chamada de mensagem.


Obviamente, para transmitir uma mensagem à distância, a informação deve ser transferida para algum tipo de meio móvel. Os transportadores podem circular pelo espaço utilizando veículos, como acontece com as cartas enviadas pelo correio. Este método garante total confiabilidade na transmissão da informação, uma vez que o destinatário recebe a mensagem original, mas requer um tempo significativo para transmissão. Desde meados do século XIX, os métodos de transmissão de informações tornaram-se difundidos usando um portador de informação que se propaga naturalmente - vibrações eletromagnéticas (vibrações elétricas, ondas de rádio, luz). A implementação desses métodos requer:

Transferência preliminar da informação contida na mensagem para o meio - codificação;

Garantir a transmissão do sinal assim recebido ao destinatário através de um canal de comunicação especial;

Conversão reversa do código do sinal em código de mensagem - decodificação.

A utilização de meios eletromagnéticos torna a entrega de uma mensagem ao destinatário quase instantânea, mas requer medidas adicionais para garantir a qualidade (confiabilidade e precisão) da informação transmitida, uma vez que os canais reais de comunicação estão sujeitos a interferências naturais e artificiais. Dispositivos que implementam o processo de transferência de dados formam sistemas de comunicação. Dependendo do método de apresentação da informação, os sistemas de comunicação podem ser divididos em sinais (telégrafo, telefax), som (telefone), vídeo e sistemas combinados (televisão). O sistema de comunicação mais desenvolvido do nosso tempo é a Internet.

Processamento de dados

Como a informação não é material, seu processamento envolve diversas transformações. Os processos de processamento incluem qualquer transferência de informação de um meio para outro meio. As informações destinadas ao processamento são chamadas de dados. O principal tipo de processamento da informação primária recebida pelos diversos dispositivos é a transformação em uma forma que garanta sua percepção pelos sentidos humanos. Assim, as fotografias do espaço obtidas em raios X são convertidas em fotografias coloridas comuns usando conversores de espectro especiais e materiais fotográficos. Dispositivos de visão noturna convertem a imagem obtida em raios infravermelhos (térmicos) em uma imagem na faixa visível. Para algumas tarefas de comunicação e controle, é necessária a conversão de informações analógicas. Para tanto, são utilizados conversores de sinal analógico para digital e digital para analógico.


O tipo mais importante de processamento de informação semântica é a determinação do significado (conteúdo) contido em uma determinada mensagem. Ao contrário da informação semântica primária, ela não possui características estatísticas, ou seja, uma medida quantitativa - ou há sentido ou não. E quanto é, se houver, é impossível estabelecer. O significado contido na mensagem é descrito em uma linguagem artificial que reflete as conexões semânticas entre as palavras do texto fonte. Um dicionário desse idioma, denominado tesauro, está localizado no receptor da mensagem. O significado das palavras e frases em uma mensagem é determinado atribuindo-as a determinados grupos de palavras ou frases, cujo significado já foi estabelecido. O tesauro permite, assim, estabelecer o significado da mensagem e, ao mesmo tempo, é reabastecido com novos conceitos semânticos. O tipo descrito de processamento de informação é usado em sistemas de recuperação de informação e sistemas de tradução automática.


Um dos tipos mais difundidos de processamento de informações é a solução de problemas computacionais e de controle automático por meio de computadores. O processamento de informações é sempre realizado para alguma finalidade. Para alcançá-lo, deve-se conhecer a ordem das ações sobre as informações que levam a um determinado objetivo. Este procedimento é chamado de algoritmo. Além do algoritmo em si, você também precisa de algum dispositivo que implemente esse algoritmo. Nas teorias científicas, tal dispositivo é chamado de autômato. Deve-se notar que a característica mais importante da informação é o fato de que, devido à assimetria da interação da informação, novas informações aparecem durante o processamento da informação, mas a informação original não é perdida.

Informações analógicas e digitais

O som são vibrações de ondas em qualquer meio, por exemplo, no ar. Quando uma pessoa fala, as vibrações dos ligamentos da garganta são convertidas em vibrações ondulatórias do ar. Se considerarmos o som não como uma onda, mas como vibrações em um ponto, então essas vibrações podem ser representadas como mudanças na pressão do ar ao longo do tempo. Usando um microfone, as alterações de pressão podem ser detectadas e convertidas em tensão elétrica. A pressão do ar é convertida em flutuações de tensão elétrica.


Tal transformação pode ocorrer de acordo com várias leis, na maioria das vezes a transformação ocorre de acordo com uma lei linear. Por exemplo, assim:

você(t)=K(P(t)-P_0),

onde U(t) é a tensão elétrica, P(t) é a pressão do ar, P_0 é a pressão média do ar e K é o fator de conversão.

Tanto a tensão elétrica quanto a pressão do ar são funções contínuas ao longo do tempo. As funções U(t) e P(t) são informações sobre as vibrações dos ligamentos da garganta. Essas funções são contínuas e tais informações são chamadas de analógicas. A música é um caso especial de som e também pode ser representada como uma espécie de função de tempo. Será uma representação analógica da música. Mas a música também é escrita em forma de notas. Cada nota tem uma duração que é um múltiplo de uma duração pré-determinada e uma altura (dó, ré, mi, fá, sal, etc.). Se esses dados forem convertidos em números, obteremos uma representação digital da música.


A fala humana também é um caso especial de som. Também pode ser representado de forma analógica. Mas assim como a música pode ser dividida em notas, a fala pode ser dividida em letras. Se cada letra receber seu próprio conjunto de números, obteremos uma representação digital da fala. A diferença entre a informação analógica e a digital é que a informação analógica é contínua, enquanto a informação digital é discreta. , dependendo do tipo de transformação, é denominado de forma diferente: simplesmente "conversão", como conversão digital para analógico ou conversão analógico para digital; transformações complexas são chamadas de "codificação", por exemplo, codificação delta, codificação por entropia; A conversão entre características como amplitude, frequência ou fase é chamada de "modulação", por exemplo modulação amplitude-frequência, modulação por largura de pulso.

Normalmente, as conversões analógicas são bastante simples e podem ser facilmente realizadas por vários dispositivos inventados pelo homem. Um gravador converte a magnetização do filme em som, um gravador de voz converte o som em magnetização no filme, uma câmera de vídeo converte a luz em magnetização no filme, um osciloscópio converte tensão ou corrente elétrica em uma imagem, etc. Converter informações analógicas em digitais é muito mais difícil. A máquina não consegue fazer algumas transformações ou consegue com grande dificuldade. Por exemplo, converter a fala em texto, ou converter uma gravação de um concerto em partituras, e até mesmo uma representação inerentemente digital: o texto no papel é muito difícil para uma máquina converter no mesmo texto na memória do computador.

Por que então usar a representação digital da informação se ela é tão complexa? A principal vantagem da informação digital sobre a informação analógica é a imunidade ao ruído. Ou seja, no processo de cópia da informação, a informação digital é copiada como está, pode ser copiada quase um número infinito de vezes, enquanto a informação analógica torna-se ruidosa durante o processo de cópia e sua qualidade se deteriora. Normalmente, as informações analógicas não podem ser copiadas mais do que três vezes. Se você tiver um gravador de áudio de duas fitas, poderá realizar o seguinte experimento: tente reescrever a mesma música várias vezes, de fita em fita, após apenas algumas regravações; você notará o quanto a qualidade da gravação se deteriorou. As informações no cassete são armazenadas em formato analógico. Você pode reescrever músicas em formato mp3 quantas vezes quiser e a qualidade da música não se deteriora. As informações em um arquivo mp3 são armazenadas digitalmente.

Quantidade de informações

Uma pessoa ou algum outro receptor de informação, ao receber uma informação, resolve alguma incerteza. Tomemos a mesma árvore como exemplo. Quando vimos a árvore, resolvemos uma série de incertezas. Aprendemos a altura da árvore, o tipo de árvore, a densidade da folhagem, a cor das folhas e, se fosse uma árvore frutífera, víamos os frutos que estavam nela, quão maduros estavam, etc. Antes de olharmos para a árvore não sabíamos de tudo isso, depois de olharmos para a árvore resolvemos a incerteza - recebemos informações.


Se formos a um prado e olharmos para ele, obteremos um tipo diferente de informação: quão grande é o prado, qual é a altura da grama e qual é a cor da grama. Se um biólogo for a este mesmo prado, então, entre outras coisas, poderá descobrir: que variedades de erva crescem no prado, que tipo de prado é, verá que flores floresceram, quais são prestes a florescer, se o prado é adequado para vacas pastando, etc. Ou seja, ele receberá mais informações do que nós, já que ele tinha mais dúvidas antes de olhar a campina, o biólogo vai resolver mais incertezas.

Quanto mais incertezas foram resolvidas no processo de obtenção de informações, mais informações recebemos. Mas esta é uma medida subjetiva da quantidade de informação, e gostaríamos de ter uma medida objetiva. Existe uma fórmula para calcular a quantidade de informação. Temos alguma incerteza, e temos N número de casos de resolução da incerteza, e cada caso tem uma certa probabilidade de resolução, então a quantidade de informação recebida pode ser calculada usando a seguinte fórmula que Shannon nos sugeriu:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), onde

I – quantidade de informações;

N – número de resultados;

p_1, p_2, ..., p_N são as probabilidades do resultado.

A quantidade de informação é medida em bits - uma abreviatura das palavras inglesas BInary digiT, que significa dígito binário.

Para eventos igualmente prováveis, a fórmula pode ser simplificada:

I = \log_(2)N, onde

I – quantidade de informações;

N – número de resultados.

Vamos pegar, por exemplo, uma moeda e jogá-la na mesa. Ele vai cair cara ou coroa. Temos 2 eventos igualmente prováveis. Depois de lançarmos a moeda, recebemos \log_(2)2=1 bit de informação.

Vamos tentar descobrir quanta informação obtemos depois de lançar os dados. O cubo tem seis lados – seis eventos igualmente prováveis. Obtemos: \log_(2)6 \aproximadamente 2,6. Depois de lançarmos o dado sobre a mesa, recebemos aproximadamente 2,6 bits de informação.


A probabilidade de vermos um dinossauro marciano quando saímos de casa é de uma em dez mil milhões. Quanta informação obteremos sobre o dinossauro marciano quando sairmos de casa?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \approx 3,4 \cdot 10^(-9) bits.

Digamos que jogamos 8 moedas. Temos 2 ^ 8 opções de queda de moedas. Isso significa que depois de jogar moedas obteremos \log_2(2^8)=8 bits de informação.

Quando fazemos uma pergunta e temos a mesma probabilidade de receber uma resposta “sim” ou “não”, depois de responder à pergunta recebemos uma pequena informação.


É surpreendente que, se aplicarmos a fórmula de Shannon à informação analógica, obtenhamos uma quantidade infinita de informação. Por exemplo, a tensão em um ponto de um circuito elétrico pode assumir um valor igualmente provável de zero a um volt. O número de resultados que temos é infinito e, ao substituir esse valor na fórmula para eventos igualmente prováveis, obtemos o infinito - uma quantidade infinita de informações.

Agora vou mostrar como codificar “Guerra e Paz” usando apenas uma marca em qualquer haste de metal. Vamos codificar todas as letras e sinais encontrados em "Guerra e Paz" usando números de dois dígitos - eles devem ser suficientes para nós. Por exemplo, daremos à letra “A” o código “00”, à letra “B” - o código “01” e assim por diante, codificaremos sinais de pontuação, letras latinas e números. Vamos recodificar "Guerra e Paz" usando este código e obter um número longo, por exemplo, 70123856383901874..., adicione uma vírgula e um zero na frente deste número (0,70123856383901874...). O resultado é um número de zero a um. Vamos colocar uma marca na haste de metal para que a razão entre o lado esquerdo da haste e o comprimento desta haste seja exatamente igual ao nosso número. Assim, se de repente quisermos ler “Guerra e Paz”, simplesmente medimos o lado esquerdo da barra até a marca e o comprimento de toda a barra, dividimos um número por outro, obtemos um número e o recodificamos novamente em letras ( “00” a “A”, “01” a “B”, etc.).

Na realidade, não conseguiremos fazer isso, pois não conseguiremos determinar os comprimentos com precisão infinita. Alguns problemas de engenharia nos impedem de aumentar a precisão das medições, e a física quântica nos mostra que depois de um certo limite, as leis quânticas já irão interferir em nós. Intuitivamente, entendemos que quanto menor a precisão da medição, menos informação recebemos, e quanto maior a precisão da medição, mais informação recebemos. A fórmula de Shannon não é adequada para medir a quantidade de informação analógica, mas existem outros métodos para isso, que são discutidos na Teoria da Informação. Na tecnologia de informática, um bit corresponde ao estado físico do portador de informação: magnetizado - não magnetizado, há um buraco - não há buraco, carregado - não carregado, reflete luz - não reflete luz, alto potencial elétrico - baixo elétrico potencial. Neste caso, um estado é geralmente denotado pelo número 0 e o outro pelo número 1. Qualquer informação pode ser codificada com uma sequência de bits: texto, imagem, som, etc.


Junto com um bit, geralmente é usado um valor chamado byte; geralmente é igual a 8 bits. E se um bit permite que você escolha uma opção igualmente provável entre duas opções possíveis, então um byte é 1 em 256 (2 ^ 8). Para medir a quantidade de informação, também é comum utilizar unidades maiores:

1 KB (um quilobyte) 210 bytes = 1024 bytes

1 MB (um megabyte) 210 KB = 1024 KB

1 GB (um gigabyte) 210 MB = 1024 MB

Na realidade, os prefixos SI quilo-, mega-, giga- deveriam ser usados ​​para os fatores 10^3, 10^6 e 10^9, respectivamente, mas historicamente tem havido uma prática de usar fatores com potências de dois.


Um bit Shannon e um bit usado em tecnologia de computador são iguais se as probabilidades de um zero ou um aparecer em um bit de computador forem iguais. Se as probabilidades não forem iguais, então a quantidade de informação segundo Shannon torna-se menor, vimos isso no exemplo do dinossauro marciano. A quantidade de informações do computador fornece uma estimativa superior da quantidade de informações. A memória volátil, depois que a energia é aplicada a ela, geralmente é inicializada com algum valor, por exemplo, todos uns ou todos zeros. É claro que depois que a energia é aplicada à memória, não há informação ali, uma vez que os valores nas células da memória são estritamente definidos, não há incerteza. A memória pode armazenar uma certa quantidade de informações, mas depois que a energia é aplicada a ela, não há mais informações nela.

A desinformação é informação deliberadamente falsa fornecida a um inimigo ou parceiro de negócios para operações de combate mais eficazes, cooperação, verificação de vazamento de informações e a direção de seu vazamento, identificação de potenciais clientes do mercado negro. Também a desinformação (também mal informada) é o processo de manipulação. informação em si, tais como: enganar alguém fornecendo informações incompletas ou completas, mas não mais necessárias, distorcendo o contexto, distorcendo parte da informação.


O objetivo dessa influência é sempre o mesmo - o oponente deve agir conforme a necessidade do manipulador. A ação do alvo contra o qual a desinformação é dirigida pode consistir na tomada de uma decisão que o manipulador necessita ou na recusa de tomar uma decisão que seja desfavorável ao manipulador. Mas em qualquer caso, o objetivo final é a ação que será tomada pelo adversário.

A desinformação, portanto, é um produto da actividade humana, uma tentativa de criar uma falsa impressão e, consequentemente, impulsionar as acções e/ou inacções desejadas.

Tipos de desinformação:

Enganar uma pessoa ou grupo específico de pessoas (incluindo uma nação inteira);

Manipulação (ações de uma pessoa ou grupo de pessoas);

Criar opinião pública sobre um problema ou objeto.

A deturpação nada mais é do que um engano total, o fornecimento de informações falsas. A manipulação é um método de influência que visa diretamente mudar a direção da atividade das pessoas. Os seguintes níveis de manipulação são diferenciados:

Fortalecer os valores (ideias, atitudes) que existem na mente das pessoas e são benéficos ao manipulador;

Mudança parcial de opinião sobre um determinado evento ou circunstância;

Uma mudança radical nas atitudes de vida.

A criação da opinião pública é a formação na sociedade de uma certa atitude em relação a um problema escolhido.


Fontes e links

ru.wikipedia.org – enciclopédia gratuita Wikipédia

youtube.com - hospedagem de vídeos no YouTube

images.yandex.ua - imagens Yandex

google.com.ua - Google imagens

ru.wikibooks.org - Wikilivros

inf1.info – Planeta Informática

old.russ.ru – Revista Russa

shkolo.ru – Diretório de informações

5byte.ru – site de ciência da computação

ssti.ru – Tecnologias de informação

klgtu.ru - Ciência da Computação

informatika.sch880.ru - site do professor de ciência da computação O.V. Podvintseva

bibliofond.ru - biblioteca eletrônica Bibliofond

life-prog.ru - programação

Informação é informação sobre algo

Conceito e tipos de informação, transmissão e processamento, busca e armazenamento de informação

Informação é, definição

A informação é qualquer inteligência, recebidos e transmitidos, armazenados por diversas fontes. - esta é toda a coleção de informações sobre o mundo que nos rodeia, sobre todos os tipos de processos que nele ocorrem e que podem ser percebidos por organismos vivos, máquinas eletrônicas e outros sistemas de informação.

- Esse informação significativa sobre algo, quando a forma de sua apresentação também é informação, ou seja, tem função de formatação de acordo com sua natureza.

A informação é tudo o que pode ser complementado com nossos conhecimentos e suposições.

A informação é informações sobre algo, independentemente da forma como são apresentadas.

A informação é mental de qualquer organismo psicofísico, produzido por ele ao utilizar qualquer meio denominado meio de informação.

A informação é informações percebidas por humanos e (ou) especialistas. dispositivos como um reflexo dos fatos do mundo material ou espiritual em processo comunicações.

A informação é dados organizados de tal forma que façam sentido para quem os manipula.

A informação é o significado que uma pessoa atribui aos dados com base nas convenções conhecidas usadas para representá-los.

A informação é informação, explicação, apresentação.

A informação é quaisquer dados ou informações que interessem a alguém.

A informação é informações sobre objetos e fenômenos ambientais, seus parâmetros, propriedades e estados, que são percebidos pelos sistemas de informação (organismos vivos, máquinas de controle, etc.) em processo vida e trabalho.

A mesma mensagem informativa (artigo de jornal, anúncio, carta, telegrama, certificado, história, desenho, transmissão de rádio, etc.) pode conter diferentes quantidades de informação para pessoas diferentes - dependendo do seu conhecimento prévio, do nível de compreensão desta mensagem e interesse nisso.

Nos casos em que falam sobre automação trabalhar com informações por meio de quaisquer dispositivos técnicos, eles não estão interessados ​​​​no conteúdo da mensagem, mas em quantos caracteres essa mensagem contém.

A informação é

Em relação ao processamento de dados computacionais, a informação é entendida como uma determinada sequência de designações simbólicas (letras, números, imagens gráficas e sons codificados, etc.), carregando uma carga semântica e apresentadas de forma compreensível ao computador. Cada novo caractere nessa sequência de caracteres aumenta o volume de informações da mensagem.

Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. Por exemplo, o conceito de “informação” é básico num curso de informática, sendo impossível defini-lo através de outros conceitos mais “simples” (assim como em geometria, por exemplo, é impossível expressar o conteúdo do conceitos básicos “ponto”, “linha”, “plano” através de conceitos mais simples).

O conteúdo dos conceitos básicos de qualquer ciência deve ser explicado com exemplos ou identificado comparando-os com o conteúdo de outros conceitos. No caso do conceito “informação”, o problema da sua definição é ainda mais complexo, visto que se trata de um conceito científico geral. Este conceito é utilizado em diversas ciências (informática, cibernética, biologia, física, etc.), e em cada ciência o conceito de “informação” está associado a diferentes sistemas de conceitos.

Conceito de informação

Na ciência moderna, são considerados dois tipos de informação:

Informação objetiva (primária) é propriedade de objetos materiais e fenômenos (processos) de gerar uma variedade de estados, que por meio de interações (interações fundamentais) são transmitidos a outros objetos e impressos em sua estrutura.

Informação subjetiva (semântica, semântica, secundária) é o conteúdo semântico da informação objetiva sobre objetos e processos do mundo material, formada pela consciência humana com o auxílio de imagens semânticas (palavras, imagens e sensações) e registradas em algum meio material.

No sentido cotidiano, informação é informação sobre o mundo circundante e os processos que nele ocorrem, percebidas por uma pessoa ou por um dispositivo especial.

Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. De acordo com o conceito de K. Shannon, informação é a remoção da incerteza, ou seja, Informações que devem eliminar, de uma forma ou de outra, a incerteza existente no adquirente antes de recebê-la, e ampliar sua compreensão do objeto com informações úteis.

Do ponto de vista de Gregory Beton, a unidade elementar de informação é uma “diferença não indiferente” ou diferença efetiva para algum sistema de percepção mais amplo. Ele chama aquelas diferenças que não são percebidas de “potenciais” e aquelas que são percebidas de “efetivas”. “A informação consiste em diferenças que não são indiferentes” (c) “Qualquer percepção de informação é necessariamente o recebimento de informação sobre a diferença.” Do ponto de vista da ciência da computação, a informação possui uma série de propriedades fundamentais: novidade, relevância, confiabilidade, objetividade, completude, valor, etc. A ciência da lógica trata principalmente da análise da informação. A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de informação foi considerado pelos filósofos antigos.

A informação é

Antes do início da Revolução Industrial, determinar a essência da informação permanecia prerrogativa principalmente dos filósofos. Além disso, a nova ciência da cibernética começou a considerar questões da teoria da informação.

Às vezes, para compreender a essência de um conceito, é útil analisar o significado da palavra pela qual esse conceito é denotado. Esclarecer a forma interna de uma palavra e estudar a história de seu uso pode lançar uma luz inesperada sobre seu significado, obscurecido pelo uso “tecnológico” usual da palavra e pelas conotações modernas.

A palavra informação entrou na língua russa na era petrina. Foi registrado pela primeira vez nos “Regulamentos Espirituais” de 1721 no significado de “ideia, conceito de algo”. (Nas línguas europeias foi estabelecido anteriormente - por volta do século XIV.)

A informação é

Com base nesta etimologia, pode-se considerar informação qualquer mudança significativa de forma ou, em outras palavras, quaisquer vestígios materialmente registrados, formados pela interação de objetos ou forças e passíveis de compreensão. A informação, portanto, é uma forma convertida de energia. O portador da informação é um signo, e o método de sua existência é a interpretação: identificar o significado de um signo ou de uma sequência de signos.

O significado pode ser um evento reconstruído a partir de um signo que causou sua ocorrência (no caso de signos “naturais” e involuntários, como vestígios, evidências, etc.), ou uma mensagem (no caso de signos convencionais inerentes à esfera da linguagem). É o segundo tipo de signos que constitui o corpo da cultura humana, que, segundo uma definição, é “um conjunto de informações transmitidas não hereditariamente”.

A informação é

As mensagens podem conter informações sobre fatos ou interpretação de fatos (do latim interpretatio, interpretação, tradução).

Um ser vivo recebe informações através dos sentidos, bem como através da reflexão ou intuição. A troca de informações entre sujeitos é comunicação ou comunicação (do latim communicatio, mensagem, transferência, derivado por sua vez do latim communico, tornar comum, comunicar, falar, conectar).

Do ponto de vista prático, a informação é sempre apresentada em forma de mensagem. A mensagem informativa está associada à origem da mensagem, ao destinatário da mensagem e ao canal de comunicação.

Voltando à etimologia latina da palavra informação, vamos tentar responder à pergunta sobre o que exatamente é dado aqui.

É óbvio que, em primeiro lugar, a um determinado sentido que, sendo inicialmente informe e inexpresso, só existe potencialmente e deve ser “construído” para ser percebido e transmitido.

Em segundo lugar, a mente humana, que é treinada para pensar de forma estrutural e clara. Em terceiro lugar, a uma sociedade que, precisamente porque os seus membros partilham estes significados e os utilizam em conjunto, ganha unidade e funcionalidade.

A informação é

a informação como significado inteligente expresso é o conhecimento que pode ser armazenado, transmitido e servir de base para a geração de outros conhecimentos. As formas de conservação do conhecimento (memória histórica) são diversas: desde mitos, crônicas e pirâmides até bibliotecas, museus e bancos de dados computacionais.

Informação - informações sobre o mundo que nos rodeia, sobre os processos que nele ocorrem e que os organismos vivos percebem, gerentes máquinas e outros sistemas de informação.

A palavra "informação" é latina. Ao longo de sua longa vida, seu significado sofreu evolução, ampliando ou estreitando extremamente seus limites. A princípio, a palavra “informação” significava: “representação”, “conceito”, depois “informação”, “transmissão de mensagens”.

Nos últimos anos, os cientistas decidiram que o significado habitual (universalmente aceite) da palavra “informação” é demasiado elástico e vago, e deram-lhe o seguinte significado: “uma medida de certeza numa mensagem”.

A informação é

A teoria da informação ganhou vida pelas necessidades da prática. Sua ocorrência está associada trabalhar"Teoria Matemática da Comunicação" de Claude Shannon, publicada em 1946. Os fundamentos da teoria da informação baseiam-se em resultados obtidos por muitos cientistas. Na segunda metade do século XX, o mundo fervilhava com informações transmitidas por cabos telefônicos e telegráficos e canais de rádio. Mais tarde, surgiram os computadores eletrônicos - processadores de informação. E naquela época, a principal tarefa da teoria da informação era, antes de tudo, aumentar a eficiência dos sistemas de comunicação. A dificuldade em projetar e operar meios, sistemas e canais de comunicação é que não basta ao projetista e ao engenheiro resolver o problema do ponto de vista físico e energético. Destes pontos de vista, o sistema pode ser o mais perfeito e económico. Mas ao criar sistemas de transmissão, é importante prestar atenção na quantidade de informação que passará por esse sistema de transmissão. Afinal, a informação pode ser medida quantitativamente, contada. E nesses cálculos agem da maneira mais usual: abstraem do significado da mensagem, assim como abandonam a concretude nas operações aritméticas que nos são familiares (à medida que passam da adição de duas maçãs e três maçãs à adição de números em geral: 2 + 3).

Os cientistas disseram que “ignoraram completamente a avaliação humana da informação”. A uma série sequencial de 100 letras, por exemplo, atribuem um determinado significado de informação, sem prestar atenção se essa informação faz sentido e se, por sua vez, faz sentido na aplicação prática. A abordagem quantitativa é o ramo mais desenvolvido da teoria da informação. Por esta definição, uma coleção de 100 letras – uma frase de 100 letras de um jornal, uma peça de Shakespeare ou o teorema de Einstein – tem exatamente a mesma quantidade de informação.

Esta definição de quantidade de informação é extremamente útil e prática. Corresponde exactamente à tarefa do engenheiro de comunicações, que deve transmitir toda a informação contida no telegrama submetido, independentemente do valor dessa informação para o destinatário. O canal de comunicação não tem alma. Uma coisa é importante para o sistema de transmissão: transmitir a quantidade necessária de informações em um determinado tempo. Como calcular a quantidade de informações em uma determinada mensagem?

A informação é

A estimativa da quantidade de informação é baseada nas leis da teoria das probabilidades, mais precisamente, é determinada através probabilidades eventos. Isto é incompreensível. Uma mensagem tem valor e contém informações apenas quando aprendemos com ela sobre o resultado de um evento que é de natureza aleatória, quando é até certo ponto inesperado. Afinal, a mensagem sobre o que já se sabe não contém nenhuma informação. Aqueles. Se, por exemplo, alguém te telefona e diz: “Faz claro durante o dia e escuro à noite”, então tal mensagem só te surpreenderá com o absurdo de afirmar algo óbvio e conhecido de todos, e não com as notícias que ele contém. Outra coisa, por exemplo, é o resultado de uma corrida. Quem virá primeiro? O resultado aqui é difícil de prever. Quanto mais resultados aleatórios um evento de nosso interesse tiver, mais valiosa será a mensagem sobre seu resultado e mais informações. Uma mensagem sobre um evento que tem apenas dois resultados igualmente possíveis contém uma única unidade de informação chamada bit. A escolha de uma unidade de informação não é acidental. Está associado à forma binária mais comum de codificá-lo durante a transmissão e processamento. Tentemos, pelo menos da forma mais simplificada, imaginar o princípio geral da avaliação quantitativa da informação, que é a pedra angular de toda a teoria da informação.

Já sabemos que a quantidade de informação depende probabilidades certos resultados do evento. Se um evento, como dizem os cientistas, tem dois resultados igualmente prováveis, isso significa que cada resultado é igual a 1/2. Esta é a probabilidade de obter cara ou coroa ao lançar uma moeda. Se um evento tiver três resultados igualmente prováveis, a probabilidade de cada um é 1/3. Observe que a soma das probabilidades de todos os resultados é sempre igual a um: afinal, um de todos os resultados possíveis ocorrerá definitivamente. Um evento, como você mesmo entende, pode ter resultados prováveis ​​de forma desigual. Assim, num jogo de futebol entre uma equipa forte e uma equipa fraca, a probabilidade de a equipa forte vencer é elevada - por exemplo, 4/5. há muito menos empates, por exemplo 20/03. A probabilidade de derrota é muito pequena.

Acontece que a quantidade de informação é uma medida para reduzir a incerteza de uma determinada situação. Várias quantidades de informações são transmitidas pelos canais de comunicação, e a quantidade de informações que passa pelo canal não pode ser maior que sua capacidade. E é determinado pela quantidade de informação que passa aqui por unidade de tempo. Um dos heróis do romance “A Ilha Misteriosa” de Júlio Verne, o jornalista Gideon Spillett, relatou em aparelho telefônico capítulo da Bíblia para que seus concorrentes não pudessem usar o serviço telefônico. Nesse caso, o canal estava totalmente carregado e a quantidade de informações era igual a zero, pois as informações que ele conhecia foram transmitidas ao assinante. Isso significa que o canal estava ocioso, passando um número estritamente definido de pulsos sem carregá-los com nada. Enquanto isso, quanto mais informações cada um de um certo número de pulsos carrega, mais plenamente a capacidade do canal é utilizada. Portanto, você precisa codificar as informações com sabedoria, encontrar uma linguagem econômica e econômica para transmitir mensagens.

As informações são analisadas da maneira mais completa. No telégrafo, letras que ocorrem com frequência, combinações de letras e até frases inteiras são representadas por um conjunto mais curto de zeros e uns, e aquelas que ocorrem com menos frequência são representadas por um conjunto mais longo. No caso em que o comprimento da palavra-código é reduzido para símbolos que ocorrem com frequência e aumentado para símbolos que ocorrem raramente, eles falam de codificação eficaz de informações. Mas, na prática, muitas vezes acontece que o código que surge como resultado da “peneiração” mais cuidadosa, o código é conveniente e econômico, pode distorcer a mensagem devido a interferências, o que, infelizmente, sempre acontece nos canais de comunicação: som distorção no telefone, interferência atmosférica, distorção ou escurecimento da imagem na televisão, erros na transmissão em telégrafo. Essa interferência, ou como chamam os especialistas, ruído, ataca a informação. E isso resulta nas surpresas mais incríveis e, naturalmente, desagradáveis.

Portanto, para aumentar a confiabilidade na transmissão e processamento das informações, é necessária a introdução de caracteres extras – uma espécie de proteção contra distorções. Eles – esses símbolos extras – não carregam o conteúdo real da mensagem, são redundantes. Do ponto de vista da teoria da informação, tudo o que torna uma linguagem colorida, flexível, rica em matizes, multifacetada, multivalorada é redundância. Quão redundante, desse ponto de vista, é a carta de Tatyana para Onegin! Quanto excesso de informação há nele para uma mensagem breve e compreensível “eu te amo”! E quão precisas são as placas desenhadas à mão, compreensíveis para todos que hoje entram no metrô, onde em vez de palavras e frases de anúncios há placas simbólicas lacônicas indicando: “Entrada”, “Saída”.

A este respeito, é útil relembrar a anedota contada uma vez pelo famoso cientista americano Benjamin Franklin sobre um fabricante de chapéus que convidou seus amigos para discutir um projeto de sinalização. Era para desenhar um chapéu na placa e escrever: “John Thompson. , fabricante de chapéus, fabrica e vende chapéus por dinheiro.” Um dos meus amigos notou que as palavras "por dinheiro" dinheiro"são desnecessários - tal lembrete seria ofensivo para comprador. Outro também achou a palavra “vende” supérflua, pois nem é preciso dizer que o chapeleiro vende chapéus e não os distribui de graça. O terceiro considerou que as palavras “chapeleiro” e “faz chapéus” eram uma tautologia desnecessária, e estas últimas palavras foram descartadas. O quarto sugeriu que a palavra “chapeador” também deveria ser descartada – o chapéu pintado diz claramente quem é John Thompson. Por fim, o quinto assegurou que para comprador não fazia absolutamente nenhuma diferença se o chapeleiro se chamava John Thompson ou não, e propôs dispensar essa indicação. Assim, no final, nada restou na placa, exceto o chapéu. É claro que se as pessoas usassem apenas este tipo de códigos, sem redundância nas mensagens, então todos os “formulários de informação” – livros, relatórios, artigos – seriam extremamente breves. Mas perderiam em clareza e beleza.

As informações podem ser divididas em tipos de acordo com diferentes critérios: em verdade: verdadeiro e falso;

por meio da percepção:

Visual - percebido pelos órgãos da visão;

Auditivo - percebido pelos órgãos auditivos;

Tátil - percebido por receptores táteis;

Olfativo - percebido pelos receptores olfativos;

Gustativo - percebido pelas papilas gustativas.

conforme forma de apresentação:

Texto - transmitido na forma de símbolos destinados a denotar lexemas da língua;

Numérico - na forma de números e sinais que indicam operações matemáticas;

Gráfico - na forma de imagens, objetos, gráficos;

Som - transmissão oral ou gravada de lexemas de linguagem por meio auditivo.

por propósito:

Massa – contém informações triviais e opera com um conjunto de conceitos compreensíveis para a maior parte da sociedade;

Especial - contém um conjunto específico de conceitos quando utilizados, são transmitidas informações que podem não ser compreensíveis para a maior parte da sociedade, mas são necessárias e compreensíveis dentro do restrito grupo social onde essas informações são utilizadas;

Segredo - transmitido a um círculo restrito de pessoas e por meio de canais fechados (protegidos);

Pessoal (privado) - um conjunto de informações sobre uma pessoa que determina o status social e os tipos de interações sociais da população.

por valor:

Relevante - informação que é valiosa em um determinado momento;

Confiável – informações obtidas sem distorção;

Compreensível – informação expressa numa linguagem compreensível para aqueles a quem se destina;

Completo – informações suficientes para tomar a decisão ou entendimento correto;

Útil - a utilidade da informação é determinada pelo sujeito que a recebeu dependendo do escopo de possibilidades de sua utilização.

O valor da informação em diversas áreas do conhecimento

Na teoria da informação, muitos sistemas, métodos, abordagens e ideias estão sendo desenvolvidos atualmente. No entanto, os cientistas acreditam que novas direções na teoria da informação serão adicionadas às modernas e novas ideias surgirão. Como prova da correção de seus pressupostos, eles citam a natureza “viva” e em desenvolvimento da ciência, apontando que a teoria da informação está sendo introduzida de forma surpreendentemente rápida e firme nas mais diversas áreas do conhecimento humano. A teoria da informação penetrou na física, química, biologia, medicina, filosofia, linguística, pedagogia, economia, lógica, ciências técnicas e estética. Segundo os próprios especialistas, a doutrina da informação, que surgiu a partir das necessidades da teoria das comunicações e da cibernética, ultrapassou as suas fronteiras. E agora, talvez, tenhamos o direito de falar de informação como um conceito científico que coloca nas mãos dos pesquisadores um método teórico e de informação com o qual se pode penetrar em muitas ciências sobre a natureza viva e inanimada, sobre a sociedade, que não só permitir olhar para todos os problemas de uma nova perspectiva, mas também ver o que ainda não foi visto. É por isso que o termo “informação” se difundiu em nosso tempo, passando a fazer parte de conceitos como sistema de informação, cultura da informação e até ética da informação.

Muitas disciplinas científicas usam a teoria da informação para destacar novas direções em ciências antigas. Foi assim que surgiram, por exemplo, a geografia da informação, a economia da informação e o direito da informação. Mas o termo “informação” adquiriu uma importância extremamente grande em conexão com o desenvolvimento da mais recente tecnologia informática, a automatização do trabalho mental, o desenvolvimento de novos meios de comunicação e processamento de informação e, especialmente, com o surgimento da ciência da computação. Uma das tarefas mais importantes da teoria da informação é o estudo da natureza e das propriedades da informação, a criação de métodos para o seu processamento, em particular a transformação de uma grande variedade de informação moderna em programas de computador, com a ajuda dos quais a automação ocorre o trabalho mental - uma espécie de fortalecimento da inteligência e, portanto, o desenvolvimento dos recursos intelectuais da sociedade.

A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de “informação” é básico em um curso de informática, mas é impossível defini-lo através de outros conceitos mais “simples”. O conceito de “informação” é utilizado em diversas ciências, e em cada ciência o conceito de “. informação” está associada a diferentes sistemas de conceitos. Informação em biologia: A biologia estuda a natureza viva e o conceito de “informação” está associado ao comportamento adequado dos organismos vivos. Nos organismos vivos, as informações são transmitidas e armazenadas por meio de objetos de diferentes naturezas físicas (estado do DNA), que são considerados signos de alfabetos biológicos. A informação genética é herdada e armazenada em todas as células dos organismos vivos. Abordagem filosófica: informação é interação, reflexão, cognição. Abordagem cibernética: informação é característica gerente sinal transmitido por uma linha de comunicação.

O papel da informação na filosofia

O tradicionalismo do subjetivo dominou constantemente nas primeiras definições de informação como categoria, conceito, propriedade do mundo material. A informação existe fora da nossa consciência e só pode ser refletida em nossa percepção como resultado da interação: reflexão, leitura, recepção na forma de sinal, estímulo. A informação não é material, como todas as propriedades da matéria. A informação se apresenta na seguinte ordem: matéria, espaço, tempo, sistematicidade, função, etc., que são os conceitos fundamentais de uma reflexão formalizada da realidade objetiva em sua distribuição e variabilidade, diversidade e manifestações. A informação é uma propriedade da matéria e reflete suas propriedades (estado ou capacidade de interagir) e quantidade (medida) por meio da interação.

Do ponto de vista material, a informação é a ordem dos objetos no mundo material. Por exemplo, a ordem das letras em uma folha de papel de acordo com certas regras é uma informação escrita. A ordem dos pontos multicoloridos em uma folha de papel de acordo com certas regras é uma informação gráfica. A ordem das notas musicais é uma informação musical. A ordem dos genes no DNA é informação hereditária. A ordem dos bits em um computador é a informação do computador, etc. e assim por diante. Para realizar a troca de informações é necessária a presença de condições necessárias e suficientes.

A informação é

As condições necessárias:

A presença de pelo menos dois objetos diferentes do mundo material ou intangível;

A presença de uma propriedade comum entre os objetos que permite identificá-los como portadores de informação;

A presença de uma propriedade específica nos objetos que lhes permite distinguir objetos uns dos outros;

A presença de uma propriedade de espaço que permite determinar a ordem dos objetos. Por exemplo, o layout das informações escritas no papel é uma propriedade específica do papel que permite que as letras sejam organizadas da esquerda para a direita e de cima para baixo.

Só existe uma condição suficiente: a presença de um sujeito capaz de reconhecer informações. Este é o homem e a sociedade humana, sociedades de animais, robôs, etc. Uma mensagem informativa é construída selecionando cópias de objetos de uma base e organizando esses objetos no espaço em uma determinada ordem. O comprimento da mensagem informativa é definido como o número de cópias dos objetos base e é sempre expresso como um número inteiro. É necessário distinguir entre o comprimento de uma mensagem informativa, que é sempre medido em um número inteiro, e a quantidade de conhecimento contida em uma mensagem informativa, que é medida em uma unidade de medida desconhecida. Do ponto de vista matemático, a informação é uma sequência de números inteiros escritos em um vetor. Os números são o número do objeto na base de informações. O vetor é chamado de invariante de informação, pois não depende da natureza física dos objetos básicos. A mesma mensagem informativa pode ser expressa em letras, palavras, frases, arquivos, imagens, notas, músicas, videoclipes ou qualquer combinação de todos os itens acima.

A informação é

O papel da informação na física

informação é informação sobre o mundo circundante (objeto, processo, fenômeno, evento), que é objeto de transformação (incluindo armazenamento, transmissão, etc.) e é usada para desenvolver comportamento, para tomada de decisão, para gestão ou para aprendizagem.

Os traços característicos da informação são os seguintes:

Este é o recurso mais importante da produção moderna: reduz a necessidade de terra, trabalho, capital e reduz o consumo de matérias-primas e energia. Assim, por exemplo, se você tiver a capacidade de arquivar seus arquivos (ou seja, tiver essas informações), não precisará gastar dinheiro na compra de novos disquetes;

A informação dá vida a novas produções. Por exemplo, a invenção do feixe de laser foi a razão do surgimento e desenvolvimento da produção de discos laser (ópticos);

A informação é uma mercadoria e não se perde após a venda. Assim, se um aluno passar ao amigo informações sobre o horário das aulas durante o semestre, ele não perderá esses dados para si;

A informação acrescenta valor a outros recursos, em particular ao trabalho. Na verdade, um trabalhador com ensino superior é mais valorizado do que aquele com ensino secundário.

Como decorre da definição, três conceitos estão sempre associados à informação:

A fonte de informação é aquele elemento do mundo circundante (objeto, fenômeno, evento), cuja informação é objeto de transformação. Assim, a fonte de informação que o leitor deste livro recebe atualmente é a ciência da computação como esfera da atividade humana;

O adquirente de informação é aquele elemento do mundo circundante que utiliza a informação (para desenvolver comportamentos, tomar decisões, gerir ou aprender). O comprador desta informação é o próprio leitor;

Um sinal é um meio material que registra informações para transferi-las da fonte ao destinatário. Neste caso, o sinal é de natureza eletrônica. Se um aluno retirar este manual da biblioteca, as mesmas informações estarão em papel. Depois de lida e lembrada pelo aluno, a informação adquirirá outro portador – o biológico, quando for “gravada” na memória do aluno.

O sinal é o elemento mais importante neste circuito. As formas de sua apresentação, bem como as características quantitativas e qualitativas das informações que contém, importantes para o adquirente da informação, são discutidas mais adiante nesta seção do livro. As principais características de um computador como principal ferramenta que mapeia a fonte de informação em um sinal (link 1 na figura) e “traz” o sinal ao destinatário da informação (link 2 na figura) são fornecidas na seção Computador . A estrutura dos procedimentos que implementam as conexões 1 e 2 e compõem o processo de informação é objeto de consideração na parte do Processo de Informação.

Os objetos do mundo material estão em um estado de mudança contínua, caracterizado pela troca de energia entre o objeto e o meio ambiente. Uma mudança no estado de um objeto sempre leva a uma mudança no estado de algum outro objeto ambiental. Este fenômeno, independentemente de como, quais estados e quais objetos mudaram, pode ser considerado como a transmissão de um sinal de um objeto para outro. A alteração do estado de um objeto quando um sinal é transmitido a ele é chamada de registro de sinal.

Um sinal ou sequência de sinais forma uma mensagem que pode ser percebida pelo destinatário de uma forma ou de outra, bem como em um ou outro volume. Informação em física é um termo que generaliza qualitativamente os conceitos de “sinal” e “mensagem”. Se sinais e mensagens podem ser quantificados, então podemos dizer que sinais e mensagens são unidades de medida do volume de informação. A mensagem (sinal) é interpretada de forma diferente por sistemas diferentes. Por exemplo, um bipe sucessivamente longo e dois curtos na terminologia do código Morse é a letra de (ou D), na terminologia do BIOS da empresa premiada é um mau funcionamento da placa de vídeo.

A informação é

O papel da informação na matemática

Em matemática, a teoria da informação (teoria matemática da comunicação) é uma seção da matemática aplicada que define o conceito de informação, suas propriedades e estabelece relações limitantes para sistemas de transmissão de dados. Os principais ramos da teoria da informação são a codificação de fonte (codificação de compressão) e a codificação de canal (resistente a ruído). A matemática é mais do que uma disciplina científica. Cria uma linguagem unificada para toda a ciência.

O assunto da pesquisa matemática são objetos abstratos: número, função, vetor, conjunto e outros. Além disso, a maioria deles é introduzida axiomaticamente (axioma), ou seja, sem qualquer ligação com outros conceitos e sem qualquer definição.

A informação é

a informação não está incluída no âmbito da investigação matemática. No entanto, a palavra "informação" é usada em termos matemáticos - autoinformação e informação mútua, relacionada à parte abstrata (matemática) da teoria da informação. Porém, na teoria matemática, o conceito de “informação” está associado exclusivamente a objetos abstratos - variáveis ​​​​aleatórias, enquanto na moderna teoria da informação esse conceito é considerado de forma muito mais ampla - como uma propriedade de objetos materiais. A conexão entre esses dois termos idênticos é inegável. Foi o aparato matemático dos números aleatórios que foi utilizado pelo autor da teoria da informação, Claude Shannon. Ele mesmo quer dizer com o termo “informação” algo fundamental (irredutível). A teoria de Shannon pressupõe intuitivamente que a informação tem conteúdo. A informação reduz a incerteza geral e a entropia da informação. A quantidade de informação é mensurável. No entanto, ele alerta os pesquisadores contra a transferência mecânica de conceitos de sua teoria para outras áreas da ciência.

“A busca por formas de aplicação da teoria da informação em outros campos da ciência não se resume a uma transferência trivial de termos de um campo da ciência para outro. Essa busca se realiza em um longo processo de apresentação de novas hipóteses e seus testes experimentais. .” K.Shannon.

A informação é

O papel da informação na cibernética

O fundador da cibernética, Norbert Wiener, falou sobre informações como esta:

informação não é matéria nem energia, informação é informação." Mas a definição básica de informação, que ele deu em vários de seus livros, é a seguinte: informação é uma designação de conteúdo que recebemos do mundo externo, no processo de adaptando a nós e aos nossos sentimentos.

A informação é o conceito básico da cibernética, tal como a informação económica é o conceito básico da cibernética económica.

Existem muitas definições deste termo, são complexas e contraditórias. A razão, obviamente, é que a cibernética como fenômeno é estudada por diferentes ciências, e a cibernética é apenas a mais jovem delas. A informação é objeto de estudo de ciências como a ciência da administração, a matemática, a genética e a teoria da mídia de massa (impressa, rádio, televisão), informática, que trata dos problemas da informação científica e técnica, etc. Por fim, recentemente os filósofos têm demonstrado grande interesse pelos problemas da informação: tendem a considerar a informação como uma das principais propriedades universais da matéria, associada com o conceito de reflexão. Com todas as interpretações do conceito de informação, ele pressupõe a existência de dois objetos: a fonte da informação e o adquirente (destinatário) da informação. A transferência da informação de um para outro ocorre com a ajuda de sinais, que, em geral,. pode não ter qualquer ligação física com o seu significado: esta comunicação é determinada por acordo. Por exemplo, tocar o sino do veche significava que era preciso se reunir na praça, mas para quem não sabia dessa ordem ele não comunicou nenhuma informação.

Numa situação de sino veche, quem participa do acordo sobre o significado do sinal sabe que neste momento pode haver duas alternativas: a reunião veche acontecerá ou não. Ou, na linguagem da teoria da informação, um evento incerto (veche) tem dois resultados. O sinal recebido leva a uma diminuição da incerteza: a pessoa agora sabe que o evento (noite) tem apenas um resultado - acontecerá. Porém, se fosse sabido de antemão que a reunião aconteceria em tal e tal hora, a campainha não anunciava nada de novo. Segue-se que quanto menos provável (ou seja, mais inesperada) a mensagem, mais informação ela contém, e vice-versa, quanto maior a probabilidade do resultado antes do evento ocorrer, menos informação ela contém. Aproximadamente o mesmo raciocínio foi feito na década de 40. Século XX ao surgimento de uma teoria estatística, ou “clássica” da informação, que define o conceito de informação através da medida de redução da incerteza do conhecimento sobre a ocorrência de um evento (essa medida foi chamada de entropia). As origens desta ciência foram N. Wiener, K. Shannon e os cientistas soviéticos A. N. Kolmogorov, V. A. Kotelnikov e outros. Eles foram capazes de derivar leis matemáticas para medir a quantidade de informação e, portanto, conceitos como capacidade de canal e ., capacidade de armazenamento. de dispositivos I., etc., que serviram como um poderoso incentivo para o desenvolvimento da cibernética como ciência e da tecnologia de computação eletrônica como uma aplicação prática das conquistas da cibernética.

Quanto à determinação do valor e da utilidade da informação para o destinatário, ainda há muita coisa por resolver e pouco clara. Se partirmos das necessidades da gestão económica e, portanto, da cibernética económica, então a informação pode ser definida como toda aquela informação, conhecimento e mensagens que ajudam a resolver um determinado problema de gestão (ou seja, reduzir a incerteza dos seus resultados). Então, abrem-se algumas oportunidades para avaliar a informação: ela é mais útil, mais valiosa, quanto mais cedo ou com menos custos leva a uma solução para o problema. O conceito de informação está próximo do conceito de dados. No entanto, há uma diferença entre eles: os dados são sinais dos quais ainda é necessário extrair informações. O processamento dos dados é o processo de colocá-los em uma forma adequada para isso.

O processo de sua transferência da fonte ao destinatário e a percepção como informação podem ser considerados como passando por três filtros:

Física ou estatística (limitação puramente quantitativa da capacidade do canal, independentemente do conteúdo dos dados, ou seja, do ponto de vista sintático);

Semântica (seleção daqueles dados que podem ser compreendidos pelo destinatário, ou seja, correspondem ao tesauro de seu conhecimento);

Pragmático (seleção entre as informações compreendidas daquelas que são úteis para a resolução de um determinado problema).

Isto é claramente demonstrado no diagrama retirado do livro de E. G. Yasin sobre informação económica. Conseqüentemente, três aspectos do estudo dos problemas linguísticos são distinguidos – sintático, semântico e pragmático.

De acordo com o conteúdo, a informação é dividida em sociopolítica, socioeconómica (incluindo informação económica), científica e técnica, etc. Em geral, existem muitas classificações de informação que se baseiam em várias bases; Via de regra, devido à proximidade dos conceitos, as classificações dos dados são construídas da mesma forma. Por exemplo, as informações são divididas em estáticas (constantes) e dinâmicas (variáveis), e os dados são divididos em constantes e variáveis. Outra divisão são as informações de saída primárias, derivadas (os dados também são classificados da mesma maneira). A terceira divisão é I. controlar e informar. Quarto – redundante, útil e falso. Quinto - completo (contínuo) e seletivo. Esta ideia de Wiener dá uma indicação direta da objetividade da informação, ou seja, sua existência na natureza é independente da consciência humana (percepção).

A informação é

A cibernética moderna define a informação objetiva como a propriedade objetiva dos objetos e fenômenos materiais de gerar uma variedade de estados que, por meio das interações fundamentais da matéria, são transmitidos de um objeto (processo) para outro e ficam impressos em sua estrutura. Um sistema material na cibernética é considerado como um conjunto de objetos que podem estar em estados diferentes, mas o estado de cada um deles é determinado pelos estados de outros objetos do sistema.

A informação é

Na natureza, muitos estados de um sistema representam informações; os próprios estados representam o código primário, ou código-fonte. Assim, todo sistema material é uma fonte de informação. A cibernética define informação subjetiva (semântica) como o significado ou conteúdo de uma mensagem.

O papel da informação na ciência da computação

O tema da ciência são os dados: métodos de sua criação, armazenamento, processamento e transmissão. Conteúdo (também: “conteúdo” (no contexto), “conteúdo do site”) é um termo que significa todos os tipos de informação (texto e multimídia - imagens, áudio, vídeo) que compõem o conteúdo (visualizado, para o visitante, conteúdo ) do site. É utilizado para separar o conceito de informação que compõe a estrutura interna de uma página/site (código) daquilo que acabará sendo exibido na tela.

A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de “informação” é básico em um curso de informática, mas é impossível defini-lo através de outros conceitos mais “simples”.

As seguintes abordagens para determinar informações podem ser distinguidas:

Tradicional (comum) - usado na informática: informação é informação, conhecimento, mensagens sobre o estado de coisas que uma pessoa percebe do mundo exterior por meio dos sentidos (visão, audição, paladar, olfato, tato).

Probabilística - utilizada na teoria da informação: informação é a informação sobre objetos e fenômenos do meio ambiente, seus parâmetros, propriedades e estado, que reduzem o grau de incerteza e incompletude do conhecimento sobre eles.

As informações são armazenadas, transmitidas e processadas de forma simbólica (sinal). A mesma informação pode ser apresentada de diferentes formas:

Escrita de sinais, constituída por vários sinais, entre os quais se distinguem os simbólicos na forma de texto, números, especiais. personagens; gráfico; tabular, etc.;

Na forma de gestos ou sinais;

Forma verbal oral (conversa).

As informações são apresentadas por meio de linguagens como sistemas de signos, que são construídos com base em um alfabeto específico e possuem regras para realizar operações com signos. A linguagem é um sistema de sinais específico para apresentar informações. Existir:

As línguas naturais são línguas faladas na forma falada e escrita. Em alguns casos, a linguagem falada pode ser substituída pela linguagem das expressões faciais e dos gestos, pela linguagem dos sinais especiais (por exemplo, sinais de trânsito);

Linguagens formais são linguagens especiais para diversas áreas da atividade humana, que se caracterizam por um alfabeto estritamente fixo e regras gramaticais e sintáticas mais rígidas. Esta é a linguagem da música (notas), a linguagem da matemática (números, símbolos matemáticos), sistemas numéricos, linguagens de programação, etc. A base de qualquer idioma é o alfabeto – um conjunto de símbolos/sinais. O número total de símbolos do alfabeto é geralmente chamado de potência do alfabeto.

A mídia de informação é um meio ou corpo físico para transmitir, armazenar e reproduzir informações. (São elétricos, luminosos, térmicos, sonoros, rádio sinais, discos magnéticos e laser, publicações impressas, fotografias, etc.)

Os processos de informação são processos associados ao recebimento, armazenamento, processamento e transmissão de informações (ou seja, ações realizadas com informações). Aqueles. São processos durante os quais muda o conteúdo da informação ou a forma de sua apresentação.

Para garantir o processo de informação, são necessários uma fonte de informação, um canal de comunicação e um comprador de informação. A fonte transmite (envia) informações e o receptor as recebe (percebe). A informação transmitida viaja da fonte ao receptor por meio de um sinal (código). Alterar o sinal permite obter informações.

Sendo objeto de transformação e utilização, a informação caracteriza-se pelas seguintes propriedades:

Sintaxe é uma propriedade que determina a forma como a informação é apresentada em um meio (em um sinal). Assim, essas informações são apresentadas em meio eletrônico em fonte específica. Aqui você também pode considerar parâmetros de apresentação de informações como estilo e cor da fonte, tamanho, espaçamento entre linhas, etc. A seleção dos parâmetros necessários como propriedades sintáticas é obviamente determinada pelo método de transformação pretendido. Por exemplo, para uma pessoa com deficiência visual, o tamanho e a cor da fonte são importantes. Se você planeja inserir este texto em um computador por meio de um scanner, o tamanho do papel é importante;

A semântica é uma propriedade que determina o significado da informação como a correspondência do sinal com o mundo real. Assim, a semântica do sinal “ciência da computação” reside na definição dada anteriormente. A semântica pode ser considerada como algum acordo, conhecido pelo adquirente da informação, sobre o que cada sinal significa (a chamada regra de interpretação). Por exemplo, é a semântica dos sinais que um motorista novato estuda, estudando as regras da estrada, aprendendo os sinais de trânsito (neste caso, os próprios sinais são os sinais). A semântica das palavras (sinais) é aprendida por um aluno de uma língua estrangeira. Podemos dizer que o objetivo do ensino da informática é estudar a semântica dos diversos sinais - essência dos conceitos-chave desta disciplina;

A pragmática é uma propriedade que determina a influência da informação no comportamento do adquirente. Assim, a pragmática das informações recebidas pelo leitor deste livro é, no mínimo, a aprovação no exame de informática. Gostaria de acreditar que a pragmática deste trabalho não se limitará a isso, mas servirá para a continuação da formação e da atividade profissional do leitor.

A informação é

Deve-se notar que sinais que diferem na sintaxe podem ter a mesma semântica. Por exemplo, os sinais “computador” e “computador” significam um dispositivo eletrônico para conversão de informações. Nesse caso, costumamos falar em sinonímia de sinal. Por outro lado, um sinal (isto é, informação com uma propriedade sintática) pode ter uma pragmática diferente para os consumidores e uma semântica diferente. Assim, um sinal de trânsito conhecido como “tijolo” e com uma semântica muito específica (“entrada proibida”) significa para um motorista uma proibição de entrada, mas não tem efeito sobre um pedestre. Ao mesmo tempo, o sinal de “chave” pode ter semântica diferente: uma clave de sol, uma clave de mola, uma chave para abrir uma fechadura, uma chave usada na informática para codificar um sinal a fim de protegê-lo de acesso não autorizado (em neste caso falam em homonímia de sinal). Existem sinais - antônimos que possuem semântica oposta. Por exemplo, “frio” e “quente”, “rápido” e “lento”, etc.

O objeto de estudo da ciência da computação são os dados: métodos de sua criação, armazenamento, processamento e transmissão. E a própria informação registrada nos dados, seu significado significativo, interessa aos usuários de sistemas de informação que são especialistas em diversas ciências e áreas de atividade: um médico está interessado em informação médica, um geólogo está interessado em informação geológica, um empresário está interessado em informações comerciais, etc. (Em particular, um cientista da computação está interessado em informações sobre como trabalhar com dados).

Semiótica - ciência da informação

A informação não pode ser imaginada sem o seu recebimento, processamento, transmissão, etc., ou seja, fora do quadro da troca de informações. Todos os atos de troca de informações são realizados por meio de símbolos ou signos, com a ajuda dos quais um sistema influencia outro. Portanto, a principal ciência que estuda a informação é a semiótica - a ciência dos signos e dos sistemas de signos na natureza e na sociedade (teoria dos signos). Em cada acto de troca de informação encontram-se três “participantes”, três elementos: um signo, um objecto que designa e um destinatário (utilizador) do signo.

Dependendo das relações entre os elementos considerados, a semiótica é dividida em três seções: sintática, semântica e pragmática. A sintática estuda os signos e as relações entre eles. Ao mesmo tempo, abstrai o conteúdo do sinal e o seu significado prático para o destinatário. A semântica estuda a relação entre os signos e os objetos que eles denotam, ao mesmo tempo que abstrai do destinatário dos signos e do valor destes últimos: para ele. É claro que estudar os padrões de representação semântica de objetos em signos é impossível sem levar em conta e utilizar os padrões gerais de construção de quaisquer sistemas de signos estudados pela sintática. A pragmática estuda a relação entre os signos e seus usuários. No âmbito da pragmática, são estudadas todos os fatores que distinguem um ato de troca de informações de outro, todas as questões sobre os resultados práticos do uso da informação e seu valor para o destinatário.

Neste caso, muitos aspectos das relações dos signos entre si e com os objetos que denotam são inevitavelmente afetados. Assim, as três seções da semiótica correspondem a três níveis de abstração (distração) das características de atos específicos de troca de informações. O estudo da informação em toda a sua diversidade corresponde ao nível pragmático. Distraindo-nos do destinatário da informação, excluindo-o da consideração, passamos a estudá-la ao nível semântico. Com a abstração do conteúdo dos signos, a análise da informação é transferida para o nível da sintática. Essa interpenetração das principais seções da semiótica, associada a diferentes níveis de abstração, pode ser representada por meio do diagrama “Três seções da semiótica e sua inter-relação”. A medição da informação é realizada em três aspectos: sintático, semântico e pragmático. A necessidade de dimensões tão diferentes de informação, como será mostrado abaixo, é ditada pela prática de design e empresas operação de sistemas de informação. Consideremos uma situação típica de produção.

No final do turno, o planejador do local prepara os dados do cronograma de produção. Esses dados chegam ao centro de informação e informática (ICC) da empresa, onde são processados, e na forma de relatórios sobre o estado atual da produção são emitidos aos gestores. Com base nos dados recebidos, o gerente da oficina toma a decisão de alterar o plano de produção para o próximo planejado ou tomar quaisquer outras medidas organizacionais. Obviamente, para o gestor da loja, a quantidade de informação contida no resumo depende da magnitude do impacto económico recebido da sua utilização na tomada de decisões, da utilidade da informação recebida. Para o planejador do site, a quantidade de informações em uma mesma mensagem é determinada pela precisão de sua correspondência com a situação real do site e pelo grau de surpresa dos fatos relatados. Quanto mais inesperados eles forem, mais rápido você precisará reportá-los à gerência e mais informações haverá nesta mensagem. Para os trabalhadores da ICC, o número de caracteres e o comprimento da mensagem que transporta a informação serão de suma importância, pois é este que determina o tempo de carregamento dos equipamentos informáticos e dos canais de comunicação. Ao mesmo tempo, eles praticamente não estão interessados ​​nem na utilidade da informação nem na medida quantitativa do valor semântico da informação.

Naturalmente, ao organizar um sistema de gestão da produção e construir modelos de seleção de decisões, utilizaremos a utilidade da informação como medida da informatividade das mensagens. Ao construir um sistema contabilidade e relatórios que orientem o andamento do processo produtivo, a medida da quantidade de informações deve ser tomada como a novidade das informações recebidas. Empresa Os mesmos procedimentos para processamento mecânico de informações exigem a medição do volume de mensagens na forma de número de caracteres processados. Estas três abordagens fundamentalmente diferentes para medir a informação não são contraditórias ou mutuamente exclusivas. Pelo contrário, ao medirem a informação em diferentes escalas, permitem uma avaliação mais completa e abrangente do conteúdo informativo de cada mensagem e organizam de forma mais eficaz um sistema de gestão da produção. Segundo a adequada expressão do Prof. NÃO. Kobrinsky, quando se trata de uma empresa racional de fluxos de informação, a quantidade, a novidade e a utilidade da informação estão tão interligadas quanto a quantidade, a qualidade e o custo dos produtos em produção.

Informações no mundo material

informação é um dos conceitos gerais associados à matéria. A informação existe em qualquer objeto material na forma de vários de seus estados e é transferida de objeto para objeto no processo de sua interação. A existência da informação como propriedade objetiva da matéria decorre logicamente das propriedades fundamentais conhecidas da matéria - estrutura, mudança contínua (movimento) e interação de objetos materiais.

A estrutura da matéria se manifesta como o desmembramento interno da integridade, a ordem natural de conexão dos elementos dentro do todo. Em outras palavras, qualquer objeto material, desde a partícula subatômica do Meta Universo (Big Bang) como um todo, é um sistema de subsistemas interligados. Devido ao movimento contínuo, entendido em sentido amplo como movimento no espaço e desenvolvimento no tempo, os objetos materiais mudam de estado. Os estados dos objetos também mudam durante as interações com outros objetos. O conjunto de estados de um sistema material e todos os seus subsistemas representa informações sobre o sistema.

Estritamente falando, devido à incerteza, ao infinito e às propriedades da estrutura, a quantidade de informação objetiva em qualquer objeto material é infinita. Esta informação é chamada de completa. Contudo, é possível distinguir níveis estruturais com conjuntos finitos de estados. A informação que existe em nível estrutural com um número finito de estados é chamada de privada. Para informações privadas, o conceito de quantidade de informação faz sentido.

A partir da apresentação acima, é lógico e simples selecionar uma unidade de medida para a quantidade de informação. Vamos imaginar um sistema que só pode estar em dois estados igualmente prováveis. Vamos atribuir o código “1” a um deles e “0” ao outro. Esta é a quantidade mínima de informações que o sistema pode conter. É uma unidade de medida de informação e é chamada de bit. Existem outros métodos e unidades mais difíceis de definir para medir a quantidade de informação.

Dependendo da forma material do meio, a informação é de dois tipos principais - analógica e discreta. As informações analógicas mudam continuamente ao longo do tempo e assumem valores de um continuum de valores. Informações discretas mudam em alguns momentos e assumem valores de um determinado conjunto de valores. Qualquer objeto ou processo material é a principal fonte de informação. Todos os seus estados possíveis constituem o código-fonte da informação. O valor instantâneo dos estados é representado como um símbolo (“letra”) deste código. Para que a informação seja transmitida de um objeto para outro como receptor, é necessário que exista algum tipo de meio material intermediário que interaja com a fonte. Tais portadores na natureza, via de regra, são processos de propagação rápida da estrutura das ondas - radiação cósmica, gama e raios X, ondas eletromagnéticas e sonoras, potenciais (e talvez ondas ainda não descobertas) do campo gravitacional. Quando a radiação eletromagnética interage com um objeto como resultado de absorção ou reflexão, seu espectro muda, ou seja, as intensidades de alguns comprimentos de onda mudam. Os harmônicos das vibrações sonoras também mudam durante as interações com os objetos. A informação também é transmitida por meio de interação mecânica, mas a interação mecânica, via de regra, leva a grandes mudanças na estrutura dos objetos (até sua destruição), e a informação fica muito distorcida. A distorção da informação durante sua transmissão é chamada de desinformação.

A transferência da informação original para a estrutura do meio é chamada de codificação. Neste caso, o código-fonte é convertido em código da operadora. O meio com o código-fonte transferido para ele na forma de um código portador é chamado de sinal. O receptor de sinal possui seu próprio conjunto de estados possíveis, que é chamado de código receptor. Um sinal, interagindo com um objeto receptor, muda seu estado. O processo de conversão de um código de sinal em um código receptor é chamado de decodificação. A transferência de informações de uma fonte para um receptor pode ser considerada como interação de informações. A interação de informações é fundamentalmente diferente de outras interações. Em todas as outras interações de objetos materiais, ocorre uma troca de matéria e (ou) energia. Nesse caso, um dos objetos perde matéria ou energia e o outro a ganha. Esta propriedade das interações é chamada de simetria. Durante a interação da informação, o receptor recebe a informação, mas a fonte não a perde. A interação da informação é assimétrica. A informação objetiva em si não é material, é uma propriedade da matéria, como estrutura, movimento, e existe na mídia material na forma de seus próprios códigos.

Informações sobre a vida selvagem

A vida selvagem é complexa e diversificada. As fontes e receptores de informações nele contidos são os organismos vivos e suas células. Um organismo possui uma série de propriedades que o distinguem dos objetos materiais inanimados.

Básico:

Troca contínua de matéria, energia e informação com o meio ambiente;

Irritabilidade, capacidade do corpo de perceber e processar informações sobre mudanças no ambiente e no ambiente interno do corpo;

Excitabilidade, capacidade de responder a estímulos;

Auto-organização, manifestada como mudanças no corpo para adaptação às condições ambientais.

Um organismo, considerado um sistema, possui uma estrutura hierárquica. Essa estrutura relativa ao próprio organismo é dividida em níveis internos: molecular, celular, orgânico e, por fim, o próprio organismo. No entanto, o organismo também interage acima dos sistemas vivos dos organismos, cujos níveis são a população, o ecossistema e toda a natureza viva como um todo (biosfera). Fluxos não apenas de matéria e energia, mas também de informação circulam entre todos esses níveis. As interações de informação na natureza viva ocorrem da mesma forma que na natureza inanimada. Ao mesmo tempo, a natureza viva em processo de evolução criou uma grande variedade de fontes, portadores e receptores de informação.

A reação às influências do mundo externo se manifesta em todos os organismos, pois é causada pela irritabilidade. Nos organismos superiores, a adaptação ao ambiente externo é uma atividade complexa, que só é eficaz com informações suficientemente completas e oportunas sobre o ambiente. Os receptores das informações do ambiente externo são os órgãos dos sentidos, que incluem a visão, a audição, o olfato, o paladar, o tato e o aparelho vestibular. Na estrutura interna dos organismos existem numerosos receptores internos associados ao sistema nervoso. O sistema nervoso consiste em neurônios cujos processos (axônios e dendritos) são análogos aos canais de transmissão de informações. Os principais órgãos que armazenam e processam informações nos vertebrados são a medula espinhal e o cérebro. De acordo com as características dos sentidos, as informações percebidas pelo corpo podem ser classificadas em visuais, auditivas, gustativas, olfativas e táteis.

Quando o sinal atinge a retina do olho humano, ele excita as células constituintes de uma maneira especial. Os impulsos nervosos das células são transmitidos através de axônios ao cérebro. O cérebro lembra dessa sensação na forma de uma certa combinação de estados de seus neurônios constituintes. (O exemplo continua na seção “informação na sociedade humana”). Ao acumular informações, o cérebro cria um modelo de informação coerente do mundo circundante em sua estrutura. Na natureza viva, uma característica importante para um organismo que recebe informações é a sua disponibilidade. A quantidade de informação que o sistema nervoso humano é capaz de enviar ao cérebro durante a leitura de textos é de aproximadamente 1 bit por 1/16 s.

A informação é

O estudo dos organismos é complicado pela sua complexidade. A abstração da estrutura como um conjunto matemático, aceitável para objetos inanimados, dificilmente é aceitável para um organismo vivo, porque para criar um modelo abstrato mais ou menos adequado de um organismo é necessário levar em conta todos os aspectos hierárquicos níveis de sua estrutura. Portanto, é difícil introduzir uma medida da quantidade de informação. É muito difícil determinar as ligações entre os componentes da estrutura. Se se sabe qual órgão é a fonte da informação, então qual é o sinal e qual é o receptor?

Antes do advento dos computadores, a biologia, que trata do estudo dos organismos vivos, utilizava apenas qualitativos, ou seja, modelos descritivos. Num modelo qualitativo, é quase impossível levar em conta as conexões de informação entre os componentes da estrutura. A tecnologia da computação eletrônica tem possibilitado a aplicação de novos métodos na pesquisa biológica, em particular, o método de modelagem de máquinas, que envolve uma descrição matemática de fenômenos e processos conhecidos que ocorrem no corpo, acrescentando-lhes hipóteses sobre alguns processos desconhecidos e calculando possíveis comportamentos padrões do organismo. As opções resultantes são comparadas com o comportamento real do organismo, o que permite determinar a verdade ou falsidade das hipóteses apresentadas. Esses modelos também podem levar em conta a interação de informações. Os processos de informação que garantem a existência da própria vida são extremamente complexos. E embora seja intuitivamente claro que esta propriedade está diretamente relacionada à formação, armazenamento e transmissão de informações completas sobre a estrutura do organismo, por algum tempo uma descrição abstrata desse fenômeno parecia impossível. No entanto, os processos de informação que garantem a existência desta propriedade foram parcialmente revelados através da decifração do código genético e da leitura dos genomas de vários organismos.

Informação na sociedade humana

O desenvolvimento da matéria no processo de movimento visa complicar a estrutura dos objetos materiais. Uma das estruturas mais complexas é o cérebro humano. Até agora, esta é a única estrutura que conhecemos que possui uma propriedade que o próprio homem chama de consciência. Falando em informação, nós, como seres pensantes, queremos dizer a priori que a informação, além de sua presença na forma de sinais que recebemos, também tem algum significado. Ao formar em sua mente um modelo do mundo circundante como um conjunto interconectado de modelos de seus objetos e processos, uma pessoa usa conceitos semânticos em vez de informações. O significado é a essência de qualquer fenômeno que não coincide consigo mesmo e o conecta com o contexto mais amplo da realidade. A própria palavra indica diretamente que o conteúdo semântico da informação só pode ser formado por receptores pensantes da informação. Na sociedade humana, não é a informação em si que tem importância decisiva, mas o seu conteúdo semântico.

Exemplo (continuação). Tendo experimentado tal sensação, a pessoa atribui o conceito “tomate” ao objeto e o conceito “cor vermelha” ao seu estado. Além disso, sua consciência fixa a conexão: “tomate” - “vermelho”. Este é o significado do sinal recebido. (Exemplo continuado abaixo nesta seção). A capacidade do cérebro de criar conceitos significativos e conexões entre eles é a base da consciência. A consciência pode ser considerada como um modelo semântico autodesenvolvido do mundo circundante. Significado não é informação. A informação existe apenas em um meio tangível. A consciência humana é considerada imaterial. O significado existe na mente humana na forma de palavras, imagens e sensações. Uma pessoa pode pronunciar palavras não apenas em voz alta, mas também “para si mesma”. Ele também pode criar (ou lembrar) imagens e sensações “em sua própria mente”. No entanto, ele pode recuperar informações correspondentes a esse significado falando ou escrevendo palavras.

A informação é

Exemplo (continuação). Se as palavras “tomate” e “vermelho” são o significado dos conceitos, então onde está a informação? a informação está contida no cérebro na forma de certos estados de seus neurônios. Também está contido em texto impresso composto por essas palavras e, ao codificar letras com código binário de três bits, seu número é de 120 bits. Se você disser as palavras em voz alta, haverá muito mais informações, mas o significado permanecerá o mesmo. A imagem visual carrega a maior quantidade de informações. Isso se reflete até no folclore - “é melhor ver uma vez do que ouvir cem vezes”. A informação assim restaurada é chamada de informação semântica, pois codifica o significado de algumas informações primárias (semântica). Ao ouvir (ou ver) uma frase falada (ou escrita) em um idioma que uma pessoa não conhece, ela recebe informações, mas não consegue determinar seu significado. Portanto, para transmitir o conteúdo semântico da informação, são necessários alguns acordos entre a fonte e o receptor sobre o conteúdo semântico dos sinais, ou seja, palavras Tal acordos pode ser alcançado através da comunicação. A comunicação é uma das condições mais importantes para a existência da sociedade humana.

No mundo moderno, a informação é um dos recursos mais importantes e, ao mesmo tempo, um dos motores do desenvolvimento da sociedade humana. Os processos de informação que ocorrem no mundo material, na natureza viva e na sociedade humana são estudados (ou pelo menos levados em consideração) por todas as disciplinas científicas, da filosofia ao marketing. A crescente complexidade dos problemas de investigação científica levou à necessidade de atrair grandes equipas de cientistas de diferentes especialidades para os resolver. Portanto, quase todas as teorias discutidas abaixo são interdisciplinares. Historicamente, dois ramos complexos da ciência – a cibernética e a ciência da computação – estão envolvidos no estudo da própria informação.

A cibernética moderna é uma área multidisciplinar indústria ciência que estuda sistemas altamente complexos, como:

Sociedade humana (cibernética social);

Economia (cibernética económica);

Organismo vivo (cibernética biológica);

O cérebro humano e sua função é a consciência (inteligência artificial).

A informática, que se formou como ciência em meados do século passado, separou-se da cibernética e se dedica à pesquisa na área de métodos de obtenção, armazenamento, transmissão e processamento de informação semântica. Ambos estes indústria usar várias teorias científicas subjacentes. Isso inclui a teoria da informação e suas seções - teoria da codificação, teoria dos algoritmos e teoria dos autômatos. A pesquisa do conteúdo semântico da informação é baseada em um conjunto de teorias científicas sob o nome geral de semiótica da informação, que é uma teoria complexa, principalmente matemática, que inclui uma descrição e avaliação de métodos de recuperação, transmissão, armazenamento e classificação de informações. Considera os meios de informação como elementos de um conjunto abstrato (matemático), e as interações entre os meios como forma de ordenar os elementos desse conjunto. Esta abordagem permite descrever formalmente o código de informação, ou seja, definir um código abstrato e estudá-lo por meio de métodos matemáticos. Para esses estudos ele utiliza métodos de teoria das probabilidades, estatística matemática, álgebra linear, teoria dos jogos e outras teorias matemáticas.

Os fundamentos desta teoria foram lançados pelo cientista americano E. Hartley em 1928, que determinou a medida da quantidade de informação para determinados problemas de comunicação. Mais tarde, a teoria foi significativamente desenvolvida pelo cientista americano K. Shannon, pelos cientistas russos A.N. Kolmogorov, V.M. Glushkov e outros. A teoria da informação moderna inclui seções como teoria da codificação, teoria dos algoritmos, teoria dos autômatos digitais (veja abaixo) e algumas outras. cientista M. Mazur Toda pessoa conhece o conceito de algoritmo, mesmo sem saber. Aqui está um exemplo de algoritmo informal: “Corte os tomates em círculos ou fatias. Coloque neles a cebola picada, despeje o óleo vegetal, polvilhe com pimentão picado e mexa. Antes de comer polvilhe com sal, coloque numa saladeira e decore com salsa.” (Salada de tomate).

As primeiras regras para resolver problemas aritméticos na história da humanidade foram desenvolvidas por um dos famosos cientistas da antiguidade, Al-Khorezmi, no século IX dC. Em sua homenagem, as regras formalizadas para atingir qualquer objetivo são chamadas de algoritmos. O tema da teoria dos algoritmos é encontrar métodos para construir e avaliar algoritmos computacionais e de controle eficazes (inclusive universais) para processamento de informações. Para fundamentar tais métodos, a teoria dos algoritmos utiliza o aparato matemático da teoria da informação. O conceito científico moderno de algoritmos como métodos de processamento de informação foi introduzido nos trabalhos de E. Post e A. Turing na década de 20 do século XX (Turing). Máquina). Os cientistas russos A. Markov (Algoritmo Normal de Markov) e A. Kolmogorov deram uma grande contribuição para o desenvolvimento da teoria dos algoritmos. A teoria dos autômatos é um ramo da cibernética teórica que estuda modelos matemáticos de dispositivos realmente existentes ou fundamentalmente possíveis que processam informações discretas. em momentos discretos no tempo.

O conceito de autômato surgiu na teoria dos algoritmos. Se existem alguns algoritmos universais para resolver problemas computacionais, então também deve haver dispositivos (embora abstratos) para implementar tais algoritmos. Na verdade, uma máquina de Turing abstrata, considerada na teoria dos algoritmos, é ao mesmo tempo um autômato definido informalmente. A justificativa teórica para a construção de tais dispositivos é o tema da teoria dos autômatos. A teoria dos autômatos utiliza o aparato das teorias matemáticas - álgebra, lógica matemática, análise combinatória, teoria dos grafos, teoria das probabilidades, etc. , é a principal base teórica para a criação de computadores eletrônicos e sistemas de controle automatizados. A semiótica é um complexo de teorias científicas que estuda as propriedades dos sistemas de signos. Os resultados mais significativos foram alcançados no ramo da semiótica – a semântica. O tema da pesquisa semântica é o conteúdo semântico da informação.

Um sistema de signos é considerado um sistema de objetos concretos ou abstratos (sinais, palavras), a cada um dos quais um certo significado está associado de uma certa maneira. Em teoria, está provado que pode haver duas comparações desse tipo. O primeiro tipo de correspondência determina diretamente o objeto material que esta palavra denota e é chamado de denotação (ou, em algumas obras, nomeado). O segundo tipo de correspondência determina o significado de um signo (palavra) e é chamado de conceito. Ao mesmo tempo, são estudadas propriedades de comparações como “significado”, “verdade”, “definibilidade”, “seguimento”, “interpretação”, etc. da semântica, delineada por G. V. Leibniz e F de Saussure no século XIX, formulada e desenvolvida por C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), etc. A principal conquista da teoria é a criação de um aparato de análise semântica que permite representar o significado de um texto em uma linguagem natural na forma de um registro em alguma linguagem semântica (semântica) formalizada. A análise semântica é a base para a criação de dispositivos. (programas) para tradução automática de uma língua natural para outra.

As informações são armazenadas transferindo-as para alguma mídia tangível. A informação semântica registrada em um meio de armazenamento tangível é chamada de documento. A humanidade aprendeu a armazenar informações há muito tempo. As formas mais antigas de armazenamento de informações utilizavam a disposição de objetos - conchas e pedras na areia, nós em uma corda. Um desenvolvimento significativo desses métodos foi a escrita - uma representação gráfica de símbolos em pedra, argila, papiro e papel. De grande importância no desenvolvimento desta direção foi invenção impressão de livros. Ao longo de sua história, a humanidade acumulou uma enorme quantidade de informações em bibliotecas, arquivos, periódicos e outros documentos escritos.

Atualmente, o armazenamento de informações na forma de sequências de caracteres binários ganhou particular importância. Para implementar esses métodos, vários dispositivos de armazenamento são usados. Eles são o elo central dos sistemas de armazenamento de informações. Além deles, tais sistemas utilizam meios de busca de informações (motor de busca), meios de obtenção de informações (sistemas de informação e referência) e meios de exibição de informações (dispositivo de saída). Formados de acordo com a finalidade da informação, tais sistemas de informação formam bases de dados, bancos de dados e uma base de conhecimento.

A transferência de informação semântica é o processo de sua transferência espacial da fonte para o destinatário (destinatário). O homem aprendeu a transmitir e receber informações ainda antes de armazená-las. A fala é um método de transmissão que nossos ancestrais distantes usavam em contato direto (conversa) - ainda o usamos agora. Para transmitir informações a longas distâncias, é necessário utilizar processos de informação muito mais complexos. Para realizar tal processo, a informação deve ser formatada (apresentada) de alguma forma. Para apresentar informações, são utilizados vários sistemas de signos – conjuntos de símbolos semânticos predeterminados: objetos, imagens, palavras escritas ou impressas da linguagem natural. A informação semântica sobre qualquer objeto, fenômeno ou processo apresentado com a ajuda deles é chamada de mensagem.

Obviamente, para transmitir uma mensagem à distância, a informação deve ser transferida para algum tipo de meio móvel. Os transportadores podem circular pelo espaço utilizando veículos, como acontece com as cartas enviadas pelo correio. Este método garante total confiabilidade na transmissão da informação, uma vez que o destinatário recebe a mensagem original, mas requer um tempo significativo para transmissão. Desde meados do século XIX, os métodos de transmissão de informações tornaram-se difundidos usando um portador de informação que se propaga naturalmente - vibrações eletromagnéticas (vibrações elétricas, ondas de rádio, luz). A implementação desses métodos requer:

Transferência preliminar da informação contida na mensagem para o meio - codificação;

Garantir a transmissão do sinal assim recebido ao destinatário através de um canal de comunicação especial;

Conversão reversa do código do sinal em código de mensagem - decodificação.

A informação é

A utilização de meios eletromagnéticos torna a entrega de uma mensagem ao destinatário quase instantânea, mas requer medidas adicionais para garantir a qualidade (confiabilidade e precisão) da informação transmitida, uma vez que os canais reais de comunicação estão sujeitos a interferências naturais e artificiais. Dispositivos que implementam o processo de transferência de dados formam sistemas de comunicação. Dependendo do método de apresentação da informação, os sistemas de comunicação podem ser divididos em sinalização (, telefax), som (), vídeo e sistemas combinados (televisão). O sistema de comunicação mais desenvolvido do nosso tempo é a Internet.

Processamento de dados

Como a informação não é material, seu processamento envolve diversas transformações. Os processos de processamento incluem qualquer transferência de informação de um meio para outro meio. As informações destinadas ao processamento são chamadas de dados. O principal tipo de processamento da informação primária recebida pelos diversos dispositivos é a transformação em uma forma que garanta sua percepção pelos sentidos humanos. Assim, as fotografias do espaço obtidas em raios X são convertidas em fotografias coloridas comuns usando conversores de espectro especiais e materiais fotográficos. Dispositivos de visão noturna convertem a imagem obtida em raios infravermelhos (térmicos) em uma imagem na faixa visível. Para algumas tarefas de comunicação e controle, é necessária a conversão de informações analógicas. Para tanto, são utilizados conversores de sinal analógico para digital e digital para analógico.

O tipo mais importante de processamento de informação semântica é a determinação do significado (conteúdo) contido em uma determinada mensagem. Ao contrário da informação semântica primária, ela não possui estatística características, ou seja, uma medida quantitativa - ou há sentido ou não. E quanto é, se houver, é impossível estabelecer. O significado contido na mensagem é descrito em uma linguagem artificial que reflete as conexões semânticas entre as palavras do texto fonte. Um dicionário desse idioma, denominado tesauro, está localizado no receptor da mensagem. O significado das palavras e frases em uma mensagem é determinado atribuindo-as a determinados grupos de palavras ou frases, cujo significado já foi estabelecido. O tesauro permite, assim, estabelecer o significado da mensagem e, ao mesmo tempo, é reabastecido com novos conceitos semânticos. O tipo descrito de processamento de informação é usado em sistemas de recuperação de informação e sistemas de tradução automática.

Um dos tipos mais difundidos de processamento de informações é a solução de problemas computacionais e de controle automático por meio de computadores. O processamento de informações é sempre realizado para alguma finalidade. Para alcançá-lo, deve-se conhecer a ordem das ações sobre as informações que levam a um determinado objetivo. Este procedimento é chamado de algoritmo. Além do algoritmo em si, você também precisa de algum dispositivo que implemente esse algoritmo. Nas teorias científicas, tal dispositivo é chamado de autômato. Deve-se notar que a característica mais importante da informação é o fato de que, devido à assimetria da interação da informação, novas informações aparecem durante o processamento da informação, mas a informação original não é perdida.

Informações analógicas e digitais

O som são vibrações de ondas em qualquer meio, por exemplo, no ar. Quando uma pessoa fala, as vibrações dos ligamentos da garganta são convertidas em vibrações ondulatórias do ar. Se considerarmos o som não como uma onda, mas como vibrações em um ponto, então essas vibrações podem ser representadas como mudanças na pressão do ar ao longo do tempo. Usando um microfone, as alterações de pressão podem ser detectadas e convertidas em tensão elétrica. A pressão do ar é convertida em flutuações de tensão elétrica.

Tal transformação pode ocorrer de acordo com várias leis, na maioria das vezes a transformação ocorre de acordo com uma lei linear. Por exemplo, assim:

você(t)=K(P(t)-P_0),

onde U(t) é a tensão elétrica, P(t) é a pressão do ar, P_0 é a pressão média do ar e K é o fator de conversão.

Tanto a tensão elétrica quanto a pressão do ar são funções contínuas ao longo do tempo. As funções U(t) e P(t) são informações sobre as vibrações dos ligamentos da garganta. Essas funções são contínuas e tais informações são chamadas de analógicas. A música é um caso especial de som e também pode ser representada como uma espécie de função de tempo. Será uma representação analógica da música. Mas a música também é escrita em forma de notas. Cada nota tem uma duração que é um múltiplo de uma duração pré-determinada e uma altura (dó, ré, mi, fá, sal, etc.). Se esses dados forem convertidos em números, obteremos uma representação digital da música.

A fala humana também é um caso especial de som. Também pode ser representado de forma analógica. Mas assim como a música pode ser dividida em notas, a fala pode ser dividida em letras. Se cada letra receber seu próprio conjunto de números, obteremos uma representação digital da fala. A diferença entre a informação analógica e a digital é que a informação analógica é contínua, enquanto a informação digital é discreta. , dependendo do tipo de transformação, é denominado de forma diferente: simplesmente "conversão", como conversão digital para analógico ou conversão analógico para digital; transformações complexas são chamadas de "codificação", por exemplo, codificação delta, codificação por entropia; A conversão entre características como amplitude, frequência ou fase é chamada de "modulação", por exemplo modulação amplitude-frequência, modulação por largura de pulso.

A informação é

Normalmente, as conversões analógicas são bastante simples e podem ser facilmente realizadas por vários dispositivos inventados pelo homem. Um gravador converte a magnetização do filme em som, um gravador de voz converte o som em magnetização no filme, uma câmera de vídeo converte a luz em magnetização no filme, um osciloscópio converte tensão ou corrente elétrica em uma imagem, etc. Converter informações analógicas em digitais é muito mais difícil. A máquina não consegue fazer algumas transformações ou consegue com grande dificuldade. Por exemplo, converter a fala em texto, ou converter uma gravação de um concerto em partituras, e até mesmo uma representação inerentemente digital: o texto no papel é muito difícil para uma máquina converter no mesmo texto na memória do computador.

A informação é

Por que então usar a representação digital da informação se ela é tão complexa? A principal vantagem da informação digital sobre a informação analógica é a imunidade ao ruído. Ou seja, no processo de cópia da informação, a informação digital é copiada como está, pode ser copiada quase um número infinito de vezes, enquanto a informação analógica torna-se ruidosa durante o processo de cópia e sua qualidade se deteriora. Normalmente, as informações analógicas não podem ser copiadas mais do que três vezes. Se você tiver um gravador de áudio de duas fitas, poderá realizar o seguinte experimento: tente reescrever a mesma música várias vezes, de fita em fita, após apenas algumas regravações; você notará o quanto a qualidade da gravação se deteriorou. As informações no cassete são armazenadas em formato analógico. Você pode reescrever músicas em formato mp3 quantas vezes quiser e a qualidade da música não se deteriora. As informações em um arquivo mp3 são armazenadas digitalmente.

Quantidade de informações

Uma pessoa ou algum outro receptor de informação, ao receber uma informação, resolve alguma incerteza. Tomemos a mesma árvore como exemplo. Quando vimos a árvore, resolvemos uma série de incertezas. Aprendemos a altura da árvore, o tipo de árvore, a densidade da folhagem, a cor das folhas e, se fosse uma árvore frutífera, víamos os frutos que estavam nela, quão maduros estavam, etc. Antes de olharmos para a árvore não sabíamos de tudo isso, depois de olharmos para a árvore resolvemos a incerteza - recebemos informações.

Se formos a um prado e olharmos para ele, obteremos um tipo diferente de informação: quão grande é o prado, qual é a altura da grama e qual é a cor da grama. Se um biólogo for a este mesmo prado, então, entre outras coisas, poderá descobrir: que variedades de erva crescem no prado, que tipo de prado é, verá que flores floresceram, quais são prestes a florescer, se o prado é adequado para vacas pastando, etc. Ou seja, ele receberá mais informações do que nós, já que ele tinha mais dúvidas antes de olhar a campina, o biólogo vai resolver mais incertezas.

A informação é

Quanto mais incertezas foram resolvidas no processo de obtenção de informações, mais informações recebemos. Mas esta é uma medida subjetiva da quantidade de informação, e gostaríamos de ter uma medida objetiva. Existe uma fórmula para calcular a quantidade de informação. Temos alguma incerteza, e temos N número de casos de resolução da incerteza, e cada caso tem uma certa probabilidade de resolução, então a quantidade de informação recebida pode ser calculada usando a seguinte fórmula que Shannon nos sugeriu:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), onde

I – quantidade de informações;

N - número de resultados;

p_1, p_2,..., p_N são as probabilidades do resultado.

A informação é

A quantidade de informação é medida em bits - uma abreviatura das palavras inglesas BInary digiT, que significa dígito binário.

Para eventos igualmente prováveis, a fórmula pode ser simplificada:

I = log_(2)N, onde

I – quantidade de informações;

N é o número de resultados.

Vamos pegar, por exemplo, uma moeda e jogá-la na mesa. Ele vai cair cara ou coroa. Temos 2 eventos igualmente prováveis. Depois de lançarmos a moeda, recebemos log_(2)2=1 bit de informação.

Vamos tentar descobrir quanta informação obtemos depois de lançar os dados. O cubo tem seis lados – seis eventos igualmente prováveis. Obtemos: log_(2)6 aproximadamente 2,6. Depois de lançarmos o dado sobre a mesa, recebemos aproximadamente 2,6 bits de informação.

A probabilidade de vermos um dinossauro marciano quando saímos de casa é de uma em dez mil milhões. Quanta informação obteremos sobre o dinossauro marciano quando sairmos de casa?

Esquerda(((1 sobre (10^(10))) log_2(1 sobre (10^(10))) + esquerda(( 1 - (1 sobre (10^(10)))) direita) log_2 esquerda(( 1 - (1 sobre (10 ^ (10))) certo)) certo) aproximadamente 3,4 cdot 10 ^ (-9) bits.

Digamos que jogamos 8 moedas. Temos 2 ^ 8 opções de queda de moedas. Isso significa que depois de lançar moedas obteremos log_2(2^8)=8 bits de informação.

Quando fazemos uma pergunta e temos a mesma probabilidade de receber uma resposta “sim” ou “não”, depois de responder à pergunta recebemos uma pequena informação.

É surpreendente que, se aplicarmos a fórmula de Shannon à informação analógica, obtenhamos uma quantidade infinita de informação. Por exemplo, a tensão em um ponto de um circuito elétrico pode assumir um valor igualmente provável de zero a um volt. O número de resultados que temos é infinito e, ao substituir esse valor na fórmula para eventos igualmente prováveis, obtemos o infinito - uma quantidade infinita de informações.

Agora vou mostrar como codificar “guerra e paz” usando apenas uma marca em qualquer haste de metal. Vamos codificar todas as letras e caracteres encontrados em " guerra e paz”, usando números de dois dígitos - deveriam ser suficientes para nós. Por exemplo, daremos à letra “A” o código “00”, à letra “B” - o código “01” e assim por diante, codificaremos sinais de pontuação, letras latinas e números. Vamos recodificar " guerra e o mundo" usando este código e obtenha um número longo, por exemplo, 70123856383901874..., adicione uma vírgula e um zero na frente deste número (0,70123856383901874...). O resultado é um número de zero a um. Vamos colocar risco em uma haste de metal de modo que a razão entre o lado esquerdo da haste e o comprimento desta haste seja exatamente igual ao nosso número. Assim, se de repente quisermos ler “guerra e paz”, simplesmente mediremos o lado esquerdo da barra para riscos e o comprimento de toda a haste, divida um número por outro, pegue um número e recodifique-o novamente em letras (“00” em “A”, “01” em “B”, etc.).

A informação é

Na realidade, não conseguiremos fazer isso, pois não conseguiremos determinar os comprimentos com precisão infinita. Alguns problemas de engenharia nos impedem de aumentar a precisão das medições, e a física quântica nos mostra que depois de um certo limite, as leis quânticas já irão interferir em nós. Intuitivamente, entendemos que quanto menor a precisão da medição, menos informação recebemos, e quanto maior a precisão da medição, mais informação recebemos. A fórmula de Shannon não é adequada para medir a quantidade de informação analógica, mas existem outros métodos para isso, que são discutidos na Teoria da Informação. Na tecnologia de informática, um bit corresponde ao estado físico do portador de informação: magnetizado - não magnetizado, há um buraco - sem buraco, carregado - não carregado, reflete luz - não reflete luz, alto potencial elétrico - baixo potencial elétrico. Neste caso, um estado é geralmente denotado pelo número 0 e o outro pelo número 1. Qualquer informação pode ser codificada com uma sequência de bits: texto, imagem, som, etc.

Junto com um bit, geralmente é usado um valor chamado byte; geralmente é igual a 8 bits. E se um bit permite que você escolha uma opção igualmente provável entre duas opções possíveis, então um byte é 1 em 256 (2 ^ 8). Para medir a quantidade de informação, também é comum utilizar unidades maiores:

1 KB (um quilobyte) 210 bytes = 1024 bytes

1 MB (um megabyte) 210 KB = 1024 KB

1 GB (um gigabyte) 210 MB = 1024 MB

Na realidade, os prefixos SI quilo-, mega-, giga- deveriam ser usados ​​para os fatores 10^3, 10^6 e 10^9, respectivamente, mas historicamente tem havido uma prática de usar fatores com potências de dois.

Um bit Shannon e um bit usado em tecnologia de computador são iguais se as probabilidades de um zero ou um aparecer em um bit de computador forem iguais. Se as probabilidades não forem iguais, então a quantidade de informação segundo Shannon torna-se menor, vimos isso no exemplo do dinossauro marciano. A quantidade de informações do computador fornece uma estimativa superior da quantidade de informações. A memória volátil, depois que a energia é aplicada a ela, geralmente é inicializada com algum valor, por exemplo, todos uns ou todos zeros. É claro que depois que a energia é aplicada à memória, não há informação ali, uma vez que os valores nas células da memória são estritamente definidos, não há incerteza. A memória pode armazenar uma certa quantidade de informações, mas depois que a energia é aplicada a ela, não há mais informações nela.

A desinformação é informação deliberadamente falsa fornecida a um inimigo ou parceiro comercial para uma condução mais eficaz das operações militares, cooperação, verificação de fugas de informação e a direcção da sua fuga, identificação de potenciais clientes do mercado negro. Também a desinformação (também mal informada) é o processo. de manipular a própria informação, tais como: enganar alguém fornecendo informações incompletas ou completas, mas não mais necessárias, distorcer o contexto, distorcer parte da informação.

O objetivo dessa influência é sempre o mesmo - o oponente deve agir conforme a necessidade do manipulador. A ação do alvo contra o qual a desinformação é dirigida pode consistir na tomada de uma decisão que o manipulador necessita ou na recusa de tomar uma decisão que seja desfavorável ao manipulador. Mas em qualquer caso, o objetivo final é a ação que será tomada pelo adversário.

A desinformação, então, é produtos atividade humana, uma tentativa de criar uma falsa impressão e, consequentemente, empurrar para as ações e/ou inações desejadas.

A informação é

Tipos de desinformação:

Enganar uma pessoa ou grupo específico de pessoas (incluindo uma nação inteira);

Manipulação (ações de uma pessoa ou grupo de pessoas);

Criar opinião pública sobre um problema ou objeto.

A informação é

A deturpação nada mais é do que um engano total, o fornecimento de informações falsas. A manipulação é um método de influência que visa diretamente mudar a direção da atividade das pessoas. Os seguintes níveis de manipulação são diferenciados:

Fortalecer os valores (ideias, atitudes) que existem na mente das pessoas e são benéficos ao manipulador;

Mudança parcial de opinião sobre um determinado evento ou circunstância;

Uma mudança radical nas atitudes de vida.

A criação da opinião pública é a formação na sociedade de uma certa atitude em relação a um problema escolhido.

Fontes e links

ru.wikipedia.org - enciclopédia gratuita Wikipédia

youtube.com - hospedagem de vídeos no YouTube

images.yandex.ua - imagens Yandex

google.com.ua - Google imagens

ru.wikibooks.org - Wikilivros

inf1.info - Planeta Informática

old.russ.ru - revista russa

shkolo.ru - Diretório de informações

5byte.ru - site de ciência da computação

ssti.ru - Tecnologias de informação

klgtu.ru - Ciência da Computação

informatika.sch880.ru - site do professor de ciência da computação O.V. Podvintseva

Enciclopédia de Estudos Culturais

O conceito básico de cibernética, da mesma forma, econômico I. o conceito básico de cibernética econômica. Existem muitas definições deste termo, são complexas e contraditórias. A razão para isso, obviamente, é que I. lida com o fenômeno... ... Dicionário econômico e matemático

Informação- Dados significativos. [GOST R ISO 9000 2008] informação Qualquer tipo de conhecimento sobre objetos, fatos, conceitos, etc. de uma área problemática que é trocado por usuários de um sistema de informação [GOST 34.320 96] informação Informação (mensagens, dados)… … Guia do Tradutor Técnico

Informação- e, f. informação f., andar informacyia, lat. explicação de informações, apresentação. Mensagem, informação sobre algo. BAS 1. Em todos os lugares e em tudo, proteja os interesses dos monarcas com toda a fidelidade, .. para tudo eu dou-lhe informações diretas aos Shvymers... ... Dicionário histórico de galicismos da língua russa

Informação- dados, dados de origem, informações; notificação, mensagem, notificação, aviso; classificação, catamnese, notícias, referência, material, relatório, comunicado de imprensa Dicionário de sinônimos russos. informações veja informações Dicionário de sinônimos da língua russa.... ... Dicionário de sinônimo

INFORMAÇÃO- (informação) Dados disponíveis para indivíduos, empresas ou governos na tomada de decisões económicas. Em princípio, existe uma quantidade infinitamente grande de informações; na prática, mesmo organizações grandes e sofisticadas como centrais... ... Dicionário econômico

- (dados) Informação que é processada, acumulada ou emitida por um computador. Negócios. Dicionário. M.: INFRA M, Editora Ves Mir. Graham Betts, Barry Brindley, S. Williams e outros Editor geral: Ph.D. Osadchaya I.M.. 1998. Informações ... Dicionário de termos comerciais

INFORMAÇÃO- INFORMAÇÃO, informação, mulheres. (livro, oficial). 1. apenas unidades Ação sob o cap. informar. As informações são apresentadas no nível adequado. 2. Uma mensagem informando sobre a situação ou as atividades de alguém, informações sobre algo. Dando... ... Dicionário Explicativo de Ushakov

INFORMAÇÃO- (do latim informatio familiarização, explicação) conceito utilizado na filosofia desde a antiguidade e recentemente recebeu um significado novo e mais amplo graças ao desenvolvimento da cibernética, onde atua como uma das categorias centrais... ... Enciclopédia Filosófica

INFORMAÇÃO- (de lat. explicação informatio, consciência) quaisquer informações e dados que reflitam as propriedades dos objetos naturais (biológicos, físicos, etc.), sociais e técnicos. sistemas e transmitidos por som, gráficos (inclusive escritos) ou outros meios sem... ... Enciclopédia física

Ou de outra forma (utilizando sinais convencionais, meios técnicos, etc.); desde meados do século XX, o termo “informação” tornou-se um conceito científico geral, incluindo a troca de informações entre pessoas, uma pessoa e um autômato, um autômato e um autômato; troca de sinais no mundo animal e vegetal; transferência de características de célula para célula, de organismo para organismo (por exemplo, informação genética); um dos conceitos básicos da cibernética.

A essência e os limites do fenômeno

A palavra "informação" vem do lat. informação, o que significa informação, esclarecimento, introdução. O conceito de informação foi considerado pelos filósofos antigos.

Historicamente, dois ramos complexos da ciência estão envolvidos no estudo da própria informação - a cibernética e a ciência da computação.

A informática, que se formou como ciência em meados do século XX, separou-se da cibernética e se dedica à pesquisa na área de métodos de obtenção, armazenamento, transmissão e processamento de informação semântica.

A pesquisa sobre o conteúdo semântico da informação é baseada em um conjunto de teorias científicas sob o nome geral de semiótica [ ] .

Mas se, por exemplo, conduzirmos, mesmo que superficialmente, uma análise do conteúdo dos conceitos atributivos e funcionais mais comuns em relação à informação hoje, fica claro que ambos os conceitos dependem, em última análise, da propriedade objetiva da matéria, estabelecida no passado. Século XIX e denotado pela categoria filosófica “ reflexão". No entanto, ambos os conceitos não prestam a devida atenção ao estudo da realidade óbvia, que se manifesta no facto de a informação nas formas em que existe hoje ser um produto da consciência humana, que por sua vez é um produto da forma mais elevada ( das formas conhecidas) da matéria.

Em outras palavras, os defensores de ambos os conceitos, ignorando o homem, ignorando a natureza da consciência humana, atribuem imediatamente a informação (um produto da consciência) a uma propriedade da matéria e imediatamente a chamam de “atributo da matéria”. Em decorrência desse erro, ambos os conceitos não podem nos fornecer uma definição estrita de informação como conceito, uma vez que os conceitos humanos são repletos de conteúdo como resultado da comunicação humana com a realidade objetiva, e não como resultado de operações, ainda que sofisticadas, externamente convincente, plausível em conclusões, com outros conceitos. As tentativas de apresentar a informação como uma categoria também estão fadadas ao fracasso. Basta levar em conta que a prática humana nas últimas décadas mudou tão rapidamente as formas e o conteúdo dos conceitos, bem como as suas ideias e atitudes em relação ao que hoje é comumente chamado de “informação”, que a natureza, a essência da informação e , naturalmente, o conteúdo deste conceito (se ainda o considerarmos um conceito) mudou significativamente ao longo do tempo.

Classificação das informações

Informação(do latim informatio, explicação, apresentação, consciência) é um conceito científico geral associado às propriedades objetivas da matéria e seu reflexo na consciência humana.

Na ciência moderna, são considerados dois tipos de informação.

Informação objetiva (primária)- a propriedade dos objetos e fenômenos materiais (processos) de gerar uma variedade de estados, que por meio de interações (interações fundamentais) são transmitidos a outros objetos e impressos em sua estrutura (ver V.M. Glushkov, N.M. Amosov e outros. “Enciclopédia de Cibernética). ” . Kiev 1975)

Informações subjetivas (semânticas, semânticas, secundárias)– o conteúdo semântico da informação objetiva sobre objetos e processos do mundo material, formado pela consciência humana com o auxílio de imagens semânticas (palavras, imagens e sensações) e registradas em algum meio material. Uma pessoa é caracterizada por uma percepção subjetiva da informação por meio de um determinado conjunto de suas propriedades: importância, confiabilidade, atualidade, acessibilidade, “mais ou menos”, etc. A utilização dos termos “mais informação” ou “menos informação” implica alguma possibilidade de sua medição (ou pelo menos correlação quantitativa). Com a percepção subjetiva, medir a informação só é possível na forma de estabelecer alguma escala ordinal subjetiva para avaliar “mais ou menos”. Ao medir objetivamente a quantidade de informação, deve-se abandonar deliberadamente a sua percepção do ponto de vista das propriedades subjetivas, cujos exemplos estão listados acima. Além disso, é possível que nem todas as informações tenham uma quantidade objetivamente mensurável.

No sentido cotidiano, informação é informação sobre o mundo circundante e os processos que ocorrem nele, percebida por uma pessoa ou por um dispositivo especial (ver S.I. Ozhegov, “Dicionário da Língua Russa”. Moscou, 1990). No entendimento mais simples do dia a dia, o termo “informação” costuma estar associado a alguma informação, dado, conhecimento, etc. A informação é transmitida na forma de mensagens que determinam a forma e apresentação da informação transmitida. Exemplos de mensagens são uma peça musical; Programa de TV; comandos do controlador de tráfego em um cruzamento; texto impresso em impressora; dados obtidos como resultado do programa que você criou, etc. Supõe-se que exista uma “fonte de informação” e um “receptor de informação”. Uma mensagem de uma fonte para um destinatário é transmitida através de algum meio, que neste caso é um “canal de comunicação”. Assim, na transmissão de uma mensagem de voz, o canal de comunicação pode ser considerado o ar por onde as ondas sonoras se propagam, e no caso de transmissão de uma mensagem escrita (por exemplo, texto impresso em impressora), o canal de mensagem pode ser considerado uma folha de papel em que o texto é impresso. Para que uma mensagem seja transmitida da fonte ao destinatário, é necessária alguma substância material - um portador de informação. A mensagem transmitida pelo meio é um sinal. Em geral, um sinal é um processo físico variável no tempo. A característica do processo usada para representar mensagens é chamada de parâmetro de sinal. No caso em que um parâmetro de sinal assume um número finito de valores sequenciais no tempo (todos os quais podem ser numerados), o sinal é denominado discreto, e a mensagem transmitida por meio de tais sinais é denominada mensagem discreta. Se a fonte produz uma mensagem contínua (respectivamente, o parâmetro do sinal é uma função contínua do tempo), então a informação correspondente é chamada de contínua. Exemplos de mensagem discreta são o texto de um livro, uma mensagem contínua é a fala humana transmitida por uma onda sonora modulada; o parâmetro do sinal neste último caso é a pressão criada por esta onda no local do receptor - o ouvido humano. Uma mensagem contínua pode ser representada por uma função contínua definida em um determinado intervalo. Uma mensagem contínua pode ser convertida em uma mensagem discreta (este procedimento é chamado de amostragem). Do conjunto infinito de valores de parâmetros de sinal, é selecionado um determinado número que pode caracterizar aproximadamente os valores restantes. Para isso, o domínio de definição da função é dividido em segmentos de igual comprimento e em cada um desses segmentos o valor da função é considerado constante e igual, por exemplo, ao valor médio deste segmento. Como resultado, obtemos um conjunto finito de números. Assim, qualquer mensagem contínua pode ser representada como discreta, ou seja, uma sequência de caracteres de algum alfabeto. A capacidade de amostrar um sinal contínuo com qualquer precisão desejada (para aumentar a precisão basta reduzir o passo) é de fundamental importância do ponto de vista da ciência da computação. Um computador é uma máquina digital, ou seja, a representação interna das informações nele contida é discreta. A discretização da informação de entrada (se for contínua) torna-a adequada para processamento computacional.

O conceito de “informação” é um dos fundamentais na ciência moderna em geral e básico para a informática. A informação, juntamente com a matéria e a energia, é considerada a essência mais importante do mundo em que vivemos. Contudo, se se pretender definir formalmente o conceito de “informação”, será extremamente difícil fazê-lo. Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. De acordo com o conceito de K. Shannon, informação é a remoção da incerteza, ou seja, informações que devem eliminar, de uma forma ou de outra, a incerteza existente no consumidor antes de recebê-la, e ampliar sua compreensão do objeto com informações úteis.

Unidades de quantidade de informação

Definir o conceito de “quantidade de informação” é bastante difícil. Existem duas abordagens principais para resolver este problema. Historicamente, surgiram quase simultaneamente. No final da década de 40 do século XX, um dos fundadores da cibernética, o matemático americano Claude Shannon, desenvolveu uma abordagem probabilística para medir a quantidade de informação, e o trabalho na criação de computadores levou à abordagem “volumétrica”.

Abordagem probabilística

Consideremos, por exemplo, a experiência de lançar um dado honesto que N rostos. Os resultados desta experiência podem ser os seguintes: perda de uma face com um dos seguintes caracteres: 1, 2, ..., N.

Vamos introduzir em consideração uma quantidade numérica que mede a incerteza - entropia(vamos denotar isso N). De acordo com a teoria desenvolvida, no caso de perda igualmente provável de cada um dos lados da quantidade N E N interligados Fórmula de Hartley

Ao introduzir qualquer quantidade, uma questão importante é o que tomar como unidade de medida. Obviamente, H será igual a um em N= 2. Em outras palavras, a unidade é considerada a quantidade de informação associada à condução de um experimento que consiste na obtenção de um de dois resultados igualmente prováveis ​​​​(um exemplo de tal experimento é o lançamento de uma moeda, em que dois resultados são possíveis: “cara”, “coroa”). Esta unidade de informação é chamada de “bit”.

No caso em que as probabilidades Pi os resultados do experimento (no exemplo dado acima, jogando dados) não são os mesmos, há Fórmula de Shannon

No caso de equiprobabilidade de eventos, a fórmula de Shannon se transforma na fórmula de Hartley.

Como exemplo, determinaremos a quantidade de informações associadas ao aparecimento de cada caractere nas mensagens escritas em russo. Assumiremos que o alfabeto russo consiste em 33 letras e um caractere de espaço para separar as palavras. De acordo com a fórmula de Hartley

No entanto, em palavras da língua russa (assim como em palavras de outras línguas), letras diferentes ocorrem com frequência desigual. Abaixo segue uma tabela de probabilidades de frequência de uso de diversos caracteres do alfabeto russo, obtida com base na análise de textos muito extensos.

Abordagem de volume

No sistema numérico binário, os sinais 0 e 1 são chamados de bits (bit - da expressão inglesa Binary digiTs - dígitos binários). Em um computador, um bit é a menor unidade possível de informação. A quantidade de informações gravadas em caracteres binários na memória do computador ou em meio de armazenamento externo é calculada simplesmente pelo número de caracteres binários necessários para tal gravação. Neste caso, em particular, um número não inteiro de bits é impossível (em contraste com a abordagem probabilística).

Para facilidade de uso, foram introduzidas unidades de quantidade de informação maiores do que bits. Assim, uma palavra binária de oito caracteres contém um byte de informação. 1.024 bytes formam um quilobyte (KB), 1.024 quilobytes formam um megabyte (MB) e 1.024 megabytes formam um gigabyte (GB).

A relação entre quantidades probabilísticas e volumétricas de informação é ambígua. Nem todo texto escrito em símbolos binários permite medir o volume de informação num sentido probabilístico (cibernético), mas certamente permite isso num sentido volumétrico. Além disso, se uma determinada mensagem permite a mensuração da quantidade de informação em ambos os sentidos, então esta quantidade não coincide necessariamente, e a quantidade cibernética de informação não pode ser maior que a volumétrica.

Na ciência da computação aplicada, a quantidade de informação é quase sempre entendida em sentido volumétrico.

Classificação das informações

As informações podem ser divididas em tipos de acordo com diferentes critérios.

Método de percepção: Visual - percebido pelos órgãos da visão. Auditivo - percebido pelos órgãos auditivos. Tátil - percebido por receptores táteis. Olfativo - percebido pelos receptores olfativos. Gustativo - percebido pelas papilas gustativas.

Forma de representação: Texto - transmitido na forma de símbolos destinados a denotar lexemas da língua. Numérico - na forma de números e sinais que indicam operações matemáticas. Gráfico - na forma de imagens, objetos, gráficos. Som - transmissão oral ou gravada de lexemas de linguagem por meio auditivo.

Finalidade: Massa – contém informações triviais e opera com um conjunto de conceitos compreensíveis para a maior parte da sociedade. Especial - contém um conjunto específico de conceitos quando utilizados, são transmitidas informações que podem não ser compreensíveis para a maior parte da sociedade, mas são necessárias e compreensíveis dentro do restrito grupo social onde essas informações são utilizadas; Pessoal - um conjunto de informações sobre uma pessoa que determina o status social e os tipos de interações sociais da população.

Propriedades de informação

Qualidade da informação- o grau de conformidade com as necessidades do consumidor. As propriedades da informação são relativas, pois dependem das necessidades do consumidor da informação.

Objetividade da informação caracteriza sua independência da opinião ou consciência de qualquer pessoa, bem como dos métodos de obtenção. Mais objetiva é a informação à qual os métodos de obtenção e processamento introduzem um menor elemento de subjetividade.

As informações podem ser lidas completo, quando contém um conjunto mínimo, mas suficiente de indicadores para tomar a decisão certa. Tanto a informação incompleta como a redundante reduzem a eficácia das decisões baseadas em informação.

Credibilidade- a veracidade das informações é indiscutível. A informação objetiva é sempre confiável, mas a informação confiável pode ser tanto objetiva quanto subjetiva. As razões para a falta de fiabilidade podem ser: distorção deliberada (desinformação); distorção não intencional de uma propriedade subjetiva; distorção devido a interferência; erros no registro de informações. Em geral, a confiabilidade das informações é alcançada: pela indicação do horário de ocorrência dos eventos, cuja informação é transmitida; comparação de dados obtidos de diversas fontes; detecção oportuna de desinformação; excluindo informações distorcidas, etc.

Adequação- o grau de correspondência entre o significado da informação efetivamente recebida e o seu conteúdo esperado. Por exemplo, foi feita a pergunta: “Quantos dedos uma pessoa tem na mão?” “Uma pessoa tem cinco dedos na mão” é uma resposta confiável e adequada, “Uma pessoa tem duas mãos” é uma resposta confiável, mas inadequada.

Disponibilidade de informações- uma medida da possibilidade de obter esta ou aquela informação.

Relevância da informação- este é o grau de correspondência da informação com o momento atual.

Emotividade- a capacidade da informação de evocar diferentes emoções nas pessoas. Esta propriedade da informação é utilizada pelos produtores de informação mediática. Quanto mais fortes forem as emoções evocadas, maior será a probabilidade de prestar atenção e lembrar informações.

Por mais importante que seja a medição da informação, todos os problemas associados a este conceito não podem ser reduzidos a ela. Ao analisar informações de origem social (em sentido amplo), propriedades como verdade, atualidade, valor, completude, etc. Não podem ser avaliados em termos de “redução da incerteza” (abordagem probabilística) ou número de símbolos (abordagem de volume). A passagem para o lado qualitativo da informação deu origem a outras abordagens à sua avaliação. Com a abordagem axiológica, eles se esforçam para partir do valor, do significado prático da informação, ou seja, a partir de características qualitativas significativas no sistema social. Na abordagem semântica, a informação é considerada tanto do ponto de vista da forma quanto do conteúdo. Neste caso, a informação está vinculada ao tesauro, ou seja, completude de um conjunto sistemático de dados sobre o assunto da informação. Estas abordagens não excluem a análise quantitativa, mas tornam-se significativamente mais complexas e devem basear-se em métodos modernos de estatística matemática.

Conceito de informação

O conceito de informação não pode ser considerado apenas um termo técnico, interdisciplinar ou mesmo supradisciplinar. A informação é uma categoria filosófica fundamental. As discussões entre cientistas sobre os aspectos filosóficos da informação têm mostrado de forma confiável que a informação não é redutível a nenhuma destas categorias. Os conceitos e interpretações que surgem ao longo do caminho das abordagens dogmáticas revelam-se demasiado parciais, unilaterais e não abrangem todo o âmbito deste conceito.

As tentativas de considerar a categoria da informação do ponto de vista da questão central da filosofia levaram ao surgimento de dois conceitos opostos - funcional e atributivo. “Atributos” qualificam a informação como uma propriedade de todos os objetos materiais, ou seja, como um atributo da matéria. Os “funcionalistas” associam a informação apenas ao funcionamento de sistemas complexos e auto-organizados.

Você pode tentar dar uma definição filosófica de informação indicando a conexão do conceito definido com as categorias de reflexão e atividade. Informação é o conteúdo da imagem formada no processo de reflexão. A atividade está incluída nesta definição na forma da ideia de formação de uma determinada imagem no processo de reflexão de uma determinada relação sujeito-objeto. Neste caso, não é necessária nenhuma indicação da ligação entre informação e matéria, uma vez que tanto o sujeito como o objeto do processo de reflexão podem pertencer tanto à esfera material como à esfera espiritual da vida social. Porém, é fundamental enfatizar que uma solução materialista para a questão central da filosofia exige o reconhecimento da necessidade da existência de um ambiente material - portador de informações no processo de tal reflexão. Assim, a informação deve ser interpretada como um atributo imanente (inerentemente inerente) da matéria, um momento necessário de sua autopropulsão e autodesenvolvimento. Esta categoria adquire um significado especial em relação às formas mais elevadas de movimento da matéria - biológica e social.

Há um grande número de trabalhos dedicados à interpretação física da informação. Esses trabalhos são amplamente baseados na analogia da fórmula de Boltzmann, que descreve a entropia de um sistema estatístico de partículas materiais, e na fórmula de Hartley. Materiais relevantes podem ser encontrados na literatura refletida na lista abaixo.

A informação deve ser considerada um tipo especial de recurso, significando a interpretação de um “recurso” como um estoque de determinado conhecimento sobre objetos materiais ou características energéticas, estruturais ou quaisquer outras características de um objeto. Ao contrário dos recursos associados a objetos materiais, os recursos de informação são inesgotáveis ​​​​e requerem métodos de reprodução e atualização significativamente diferentes dos recursos materiais. Em conexão com esta visão, as seguintes propriedades da informação tornam-se centrais: memorabilidade, transferibilidade, convertibilidade, reprodutibilidade, apagabilidade.

Para resumir o que foi dito, notamos que estão sendo feitos esforços (mas de forma alguma concluídos) por cientistas representando uma variedade de campos do conhecimento para construir uma teoria unificada, que visa formalizar o conceito de informação e o processo de informação, descrever a transformação da informação em processos de natureza muito diferente. O movimento da informação é a essência dos processos de controle, que são uma manifestação da atividade imanente da matéria, de sua capacidade de se mover. Desde o surgimento da cibernética, o controle tem sido considerado em relação a todas as formas de movimento da matéria, e não apenas às superiores (biológicas e sociais). Muitas manifestações de movimento em sistemas inanimados - artificiais (técnicos) e naturais (naturais) também têm características comuns de controle, embora sejam estudadas em química, física e mecânica na energia e não no sistema de informação de ideias. Os aspectos de informação em tais sistemas constituem o tema de uma nova ciência interdisciplinar - a sinergética.

A forma mais elevada de informação manifestada na gestão dos sistemas sociais é o conhecimento. Este conceito transdisciplinar, amplamente utilizado na pedagogia e na investigação sobre inteligência artificial, também afirma ser a categoria filosófica mais importante. Filosoficamente, a cognição deve ser considerada como um dos aspectos funcionais da gestão. Esta abordagem abre caminho para uma compreensão sistemática da gênese dos processos cognitivos, seus fundamentos e perspectivas.

Dados, informações e conhecimento

Os conceitos básicos utilizados em informática econômica incluem: dados, informação e conhecimento. Esses conceitos são frequentemente usados ​​de forma intercambiável, mas existem diferenças fundamentais entre eles.

O termo dados vem da palavra dados - fato, e informação (informatio) significa explicação, apresentação, ou seja, informação ou mensagem.

Dados são uma coleção de informações registradas em um meio específico em uma forma adequada para armazenamento, transmissão e processamento permanentes. A transformação e o processamento de dados permitem obter informações.

A informação é o resultado da transformação e análise de dados. A diferença entre informação e dados é que os dados são informações fixas sobre eventos e fenômenos que são armazenados em determinados meios, e as informações aparecem como resultado do processamento de dados na resolução de problemas específicos. Por exemplo, vários dados são armazenados em bancos de dados e, mediante solicitação específica, o sistema de gerenciamento de banco de dados fornece as informações necessárias.

Existem outras definições de informação, por exemplo, informação é informação sobre objetos e fenômenos ambientais, seus parâmetros, propriedades e estado, que reduzem o grau de incerteza e conhecimento incompleto sobre eles.

Conhecimento é informação processada registrada e verificada pela prática, que foi utilizada e pode ser reutilizada para tomada de decisão.

Conhecimento é um tipo de informação armazenada em uma base de conhecimento e reflete o conhecimento de um especialista em uma área específica. Conhecimento é capital intelectual.

O conhecimento formal pode assumir a forma de documentos (normas, regulamentos) que regulam a tomada de decisões ou livros didáticos, instruções que descrevem como resolver problemas. O conhecimento informal é o conhecimento e a experiência de especialistas em uma determinada área temática.

Ressalta-se que não existem definições universais desses conceitos (dados, informações, conhecimento), eles são interpretados de forma diferente. As decisões são tomadas com base nas informações recebidas e no conhecimento existente.

A tomada de decisão é a seleção da melhor opção de solução, em certo sentido, de um conjunto de opções aceitáveis ​​​​com base nas informações disponíveis. A relação entre dados, informações e conhecimento no processo de tomada de decisão é apresentada na figura.

A relação entre dados, informações e conhecimento no processo de tomada de decisão

Para resolver o problema, os dados fixos são processados ​​com base no conhecimento existente e, em seguida, a informação recebida é analisada a partir do conhecimento existente. Com base na análise, todas as soluções viáveis ​​são propostas e, como resultado da escolha, é tomada uma decisão que é a melhor em algum sentido. Os resultados da solução agregam conhecimento.

Dependendo do âmbito de utilização, as informações podem ser diferentes: científicas, técnicas, gerenciais, econômicas, etc. A informação económica é de interesse para a informática económica.

Literatura

  1. Mogilev A.V. Workshop de informática: Proc. ajuda para estudantes mais alto livro didático instituições/A.V.Mogilev, N.I.Pak, E.K.Henner; Ed. E. K. Henner. - 2ª ed., apagada. - M.: Centro Editorial "Academia", 2005. - 608 p.

Questões:

    Conceito de informação.

    Conceitos de informação.

    Formas de transmissão, apresentação e tipos de informação.

    Propriedades da informação.

    Medindo informações. Conceito matemático de informação

    O conceito de sistema numérico.

    Codificação binária.

Conceito de informação

Atualmente, o conceito de informação é um dos centrais na ciência e na prática. E isso não é surpreendente. O papel da informação na vida humana tem sido intuitivamente reconhecido desde os tempos antigos. “No princípio era a palavra” é um pensamento que permeia a consciência humana em todos os momentos.

Com o desenvolvimento da abordagem da informação, que revela novas propriedades, novos aspectos dos objetos materiais, fenômenos e processos sociais, o próprio conceito de informação passou de categorias cotidianas para um conceito científico geral, que, apesar de sua prevalência, até hoje causa uma enorme quantidade de polêmica, discussão e que tem muitos pontos de vista diferentes. “De todas as ciências, a teoria da informação e a ciência da computação, embora gozem de enorme e merecida popularidade”, escreve RI Polonnikov 1, “e tenham sucessos e conquistas inegáveis ​​em uma série de áreas aplicadas, mas continuam a permanecer em uma posição um tanto restrita, porque o seu conceito central – informação – permanece estritamente definido.” Literalmente, tantos autores escrevem sobre informação quantas definições desse fenômeno.

Quanto à etimologia da palavra “informação”, deve-se destacar que ela vem do latim “informatio”, que significa dar forma ou propriedades. No século XIV, este foi o nome dado à “programação” divina – o investimento da alma e da vida no corpo humano. Segundo a lenda, no século XIV esta prerrogativa de Deus foi apropriada pelo Rabino Lev, que criou no gueto de Praga um “robô” de barro - o Golem, que “ganhava vida” sempre que o proprietário colocava um “programa” debaixo da língua - um texto com o nome de Deus (shem). Na mesma época, a palavra “informação” passou a significar a transmissão de conhecimento por meio de livros. Assim, o significado desta palavra passou gradativamente dos conceitos de “inspiração”, “reavivamento” para os conceitos de “mensagem”, “enredo”, permanecendo intuitivo e não exigindo definições precisas, muito menos análises filosóficas.

Na Rússia, o termo “informação” apareceu na era petrina, mas não foi amplamente utilizado. Somente no início do século XX começou a ser utilizado em documentos, livros, jornais e revistas e utilizado no sentido de comunicação, informação, informação sobre algo.

Uma compreensão verdadeiramente científica do conceito de informação tornou-se possível, de facto, apenas graças ao rápido desenvolvimento na década de 20 do século passado dos meios e sistemas de comunicação, ao surgimento da informática e da cibernética, que exigiu o desenvolvimento de um teórico adequado. base.

A história dos estudos sobre a informação começou pela consideração do seu aspecto quantitativo associado à solução de problemas de comunicação aplicada e que encontrou a sua expressão na teoria americana proposta em 1948. cientista pesquisador Claude Shannon da teoria da informação matemática (estatística). O conceito que ele propôs baseava-se na ideia de informação como uma determinada substância que existe no mundo real independentemente de uma pessoa. Shannon observou que “a ideia básica da teoria da comunicação é que a informação pode ser considerada como algo muito semelhante a uma quantidade física, como massa ou energia”.

Apesar da enorme influência que a teoria matemática da informação teve no desenvolvimento da ciência, as tentativas subsequentes de estendê-la mecanicamente a outras áreas do conhecimento científico levaram à compreensão das limitações de suas disposições e à necessidade de encontrar outras abordagens para determinar a essência de informação.

E uma abordagem adicional essencialmente diferente foi a abordagem cibernética, abrangendo as estruturas e conexões dos sistemas. Com o advento da cibernética como ciência sobre as leis gerais de transformação da informação em sistemas complexos de controle, métodos de percepção, armazenamento, processamento e uso da informação, o termo “informação” tornou-se um conceito científico, uma espécie de ferramenta para estudar processos de controle .

Em 1941, Wiener publicou seu primeiro trabalho sobre as analogias entre o trabalho de uma máquina matemática e o sistema nervoso de um organismo vivo, e em 1948 - um estudo fundamental “Cibernética, ou controle e comunicação em animais e máquinas”, oferecendo seu “visão informacional” da cibernética como ciências de controle e comunicação em organismos vivos, sociedade e máquinas. Informação, de acordo com Wiener, é “uma designação de conteúdo recebido do mundo externo no processo de nossa adaptação a ele e de adaptação de nossos sentidos a ele”.

Ao contrário de Shannon, Wiener não acreditava que informação, matéria e energia fossem categorias da mesma ordem. Ele escreveu: “O cérebro mecânico não secreta pensamento, como o fígado secreta bile, como afirmavam os antigos materialistas, e não o libera na forma de energia, como os músculos. Informação é informação, não matéria e não energia”.

Falando da formação e do desenvolvimento da cibernética, não se pode deixar de notar que a abordagem de estudo do fenómeno da informação desenvolvida no âmbito desta ciência tem tido um impacto verdadeiramente inestimável na intensificação da investigação científica nesta área. Neste sentido, as décadas de 60-70 do século XX revelaram-se muito fecundas para a investigação científica no domínio das questões de informação. Foi durante estes anos, nos primórdios da informatização, que o fenómeno da informação atraiu a atenção de filósofos, físicos, linguistas, fisiologistas, geneticistas, sociólogos, historiadores, etc. O conceito de “informação” ganhou popularidade e despertou cada vez mais interesse na comunidade científica.

Assim, a formação e o desenvolvimento de vários ensinamentos sobre a informação, visões e abordagens para determinar a sua essência levaram ao facto de a informação ter crescido de uma categoria intuitiva de comunicação quotidiana para uma categoria científica geral, que também exigia a sua própria compreensão filosófica.

Atualmente, os especialistas contam com mais de 200 abordagens existentes para determinar a informação, entre as quais não há uma única que seja mais ou menos geralmente aceita, e algumas delas simplesmente não resistem às críticas e causam avaliações bastante duras na comunidade científica. .

Darei apenas algumas das definições básicas de informação:

    Informação é o conhecimento transmitido por outra pessoa ou adquirido através de pesquisa ou estudo próprio,

    Informação é a informação contida nesta mensagem e considerada como objeto de transmissão, armazenamento e processamento,

    A informação é o conteúdo objetivo da conexão entre objetos materiais em interação, manifestada em mudanças nos estados desses objetos,

    Informação são dados atuais sobre variáveis ​​​​de uma determinada área de atuação, informações sistematizadas sobre as principais relações causais que estão contidas no conhecimento como conceito de classe mais geral, em relação à qual a informação está subordinada,

    Informação é qualquer mensagem ou transmissão de informação sobre algo que não era conhecido antecipadamente.

    A informação é uma escolha lembrada de uma opção entre várias opções possíveis e iguais.

A definição mais geral ocorre na filosofia, onde a informação é entendida como um reflexo do mundo objetivo, expresso na forma de sinais e signos.

    A informação é um reflexo nas mentes das pessoas de relações objetivas de causa e efeito no mundo real que nos rodeia,

    A informação é o conteúdo dos processos de reflexão.

O conceito de informação pressupõe a presença de dois objetos: uma fonte e um consumidor. Para compreender a essência da informação, outras categorias filosóficas devem ser levadas em consideração, como o movimento, o espaço, o tempo, bem como o problema da primazia da matéria e da natureza secundária do conhecimento. Outra condição muito importante para compreender a essência da informação e resolver corretamente os problemas informacionais e cognitivos, que incluem a maioria dos jurídicos, é a utilização do princípio da representação adequada do objeto exibido pelo objeto que o exibe.

Assim, informação é entendida como informação sobre o mundo circundante e os processos nele ocorridos, percebida por uma pessoa ou por dispositivos especiais para garantir uma atividade proposital. Além disso, as informações sobre o objeto de cognição podem não apenas ser percebidas pelo sujeito cognoscente ou por um dispositivo técnico (com processamento adequado), mas também, por assim dizer, separadas de sua fonte primária - a exibição do objeto de cognição.

Conclui-se que pode ser transferido no espaço, armazenado no tempo, transferido para outro sujeito cognitivo ou dispositivo técnico (por exemplo, um computador) e sujeito a outras operações, cuja totalidade é chamada processos de informação. A sua composição e sequência são determinadas em cada caso particular. Em geral, os processos de informação compreendem a criação, síntese, transmissão, recepção, acumulação, armazenamento, transformação, sistematização, análise, seleção, disseminação da informação e sua apresentação de forma amigável.

Associados ao conceito de informação estão conceitos como sinal, mensagem e dados.

Os sinais refletem as características físicas de vários processos e objetos e, por meio de sinais, uma pessoa percebe o mundo objetivo. Por isso, Sinal representa qualquer processo que transporta informações.

Deve-se notar que na literatura existem por vezes definições que se baseiam na comparação do conceito de informação e do conceito de mensagem. Nesse caso, surge um “círculo vicioso” na definição: informação é mensagem e mensagem é informação. Tal definição pode ser justificada em vários casos, apesar de ser de natureza tautológica. No entanto, a teoria da informação deveria ir além e definir a informação de forma mais significativa. Existem também diferenças significativas entre os conceitos de informação e dados. Dados são quantidades, suas relações, frases, fatos, cuja transformação e processamento permitem extrair informações, ou seja, conhecimento sobre um determinado processo ou fenômeno. Para ser mais preciso, então dados - são factos e ideias apresentados de forma formalizada que permite que esses factos e ideias sejam transmitidos ou processados ​​através de algum processo ou meio técnico adequado.

Mensagem Trata-se de informação expressa em formato específico e destinada a ser transmitida. Um exemplo de mensagem é o texto de um telegrama, a fala de um locutor, leituras de um dispositivo de medição, comandos de controle, etc. Assim, uma mensagem é uma forma de apresentar informações.

Dados - Esse informação apresentada de forma formalizada e destinada ao tratamento por meios técnicos, como o computador. Aqueles. Os dados são a matéria-prima para a obtenção de informações.

Agora que entendemos os conceitos gerais, vejamos como o legislador aborda o conceito de “informação”.

Em geral, o fundador de uma direção informacional e jurídica separada em jurisprudência é A.B. Ele não deu uma definição clara de informação, mas listou certas características (propriedades) da informação que são importantes para o direito. Estes incluem, em particular:

a) certa independência de informações em relação ao seu portador; b) a possibilidade de utilização repetida das mesmas informações; c) sua inesgotabilidade durante o consumo; d) preservação das informações transmitidas junto à entidade transmissora; e) capacidade de preservar, agregar, integrar, acumular; f) certeza quantitativa; g) consistência 2.

Nos trabalhos sobre segurança da informação, é utilizado o seguinte conceito: a informação é o resultado da reflexão e do processamento na mente humana da diversidade do mundo circundante, são informações sobre os objetos que cercam uma pessoa, os fenômenos naturais, as atividades de outras pessoas , etc. 3

Deve-se notar que nos últimos anos houve um desenvolvimento ativo da legislação na esfera da informação e a formação do direito da informação como uma indústria independente. A base jurídica que regula as relações no domínio da informação é uma série de artigos da Constituição da Federação Russa (em particular, os artigos 23, 24, 29, 44). Além disso, durante 11 anos (até 2006), vigorou a Lei Federal de 20 de fevereiro de 1995 N 24-FZ “Sobre Informação, Informatização e Proteção da Informação” (conforme alterada pela Lei Federal de 10 de janeiro de 2003 N 615- Lei Federal (doravante denominada Lei de Informação de 1995)).

Esta lei regulamentou as relações decorrentes da formação e utilização de recursos de informação baseados na criação, recolha, processamento, acumulação, armazenamento, pesquisa, distribuição e disponibilização de informação documentada ao consumidor; criação e utilização de tecnologias de informação e meios de apoiá-las; proteção da informação, direitos dos sujeitos participantes dos processos de informação e informatização.

Em 27 de julho de 2006, foi aprovada a Lei Federal nº 149-FZ “Sobre Informação, Tecnologias da Informação e Proteção da Informação” (doravante denominada Lei Federal), que regulamenta as relações no exercício do direito de pesquisar, receber, transmitir , produzir e distribuir informação, com recurso às tecnologias de informação, bem como na garantia da protecção da informação, com excepção das relações no domínio da protecção dos resultados da actividade intelectual e meios equivalentes de individualização.

O desenvolvimento de um novo acto legislativo de base deve-se à necessidade de unificar, tanto do ponto de vista conceptual como substantivo, os princípios e regras de interacção nesta área, de eliminar uma série de lacunas na mesma e de aproximar a legislação de a Federação Russa mais próxima da prática internacional de regulação das relações de informação.

O artigo 2.º desta Lei introduz uma série de conceitos básicos.

O conceito central da legislação sobre informação, tecnologia da informação e proteção da informação é o conceito de “informação”. Na anterior Lei da Informação de 1995, por informação entendia-se a informação sobre pessoas, objetos, factos, acontecimentos, fenómenos e processos, independentemente da forma da sua prestação. A nova Lei Federal apresenta a definição de informação de forma mais geral. Informação é qualquer informação (mensagens, dados), independentemente da forma como é fornecida.

Olhando um pouco adiante, cabe destacar que o art. 5º da Lei determina o estatuto da informação como objeto das relações jurídicas. “As informações podem ser objeto de relações públicas, civis e outras relações jurídicas. As informações podem ser utilizadas livremente por qualquer pessoa e transferidas de uma pessoa para outra, a menos que leis federais estabeleçam restrições ao acesso à informação ou outros requisitos para o procedimento para seu fornecimento. ou distribuição.”

Vamos continuar a conversa sobre os conceitos introduzidos na Lei. O Artigo 2 introduz uma nova definição para a legislação russa do conceito de “tecnologia da informação”, que combina processos, métodos de pesquisa, coleta, armazenamento, processamento, fornecimento, distribuição de informações e métodos de sua implementação. A tecnologia da informação é importante para o desenvolvimento porque, dada a importância da informação, é o nível de desenvolvimento de tais tecnologias é determinado o potencial para um maior movimento progressista em todas as áreas da sociedade.

Tecnologia é um complexo de conhecimentos científicos e de engenharia implementados em técnicas de trabalho, conjuntos de fatores de produção materiais, técnicos, energéticos, trabalhistas, métodos de combiná-los para criar um produto ou serviço que atenda a determinados requisitos. Portanto, a tecnologia está indissociavelmente ligada à mecanização de um processo produtivo ou não produtivo, principalmente de gestão. As tecnologias de gestão baseiam-se na utilização de computadores e tecnologia de telecomunicações.

De acordo com a definição adotada pela UNESCO, a tecnologia da informação é um complexo de disciplinas científicas, tecnológicas e de engenharia inter-relacionadas que estudam métodos para organizar eficazmente o trabalho das pessoas envolvidas no processamento e armazenamento de informações; tecnologia informática e métodos de organização e interação com pessoas e equipamentos de produção, suas aplicações práticas, bem como os problemas sociais, económicos e culturais associados a tudo isto. As próprias tecnologias da informação exigem formação complexa, elevados custos iniciais e tecnologia de alta tecnologia. A sua introdução deve começar com a criação de software matemático e a formação de fluxos de informação em sistemas de formação especializada.

Assim, a tecnologia da informação é um complexo de objetos, ações e regras associadas à preparação, processamento e entrega de informações na comunicação pessoal, de massa e industrial, bem como todas as tecnologias e indústrias que suportam integralmente os processos elencados.

Os principais tipos de tecnologias de informação incluem:

Tecnologias de informação altamente inteligentes, que representam a geração de soluções técnicas que implementam a modelagem situacional, permitindo identificar a conexão dos elementos, sua dinâmica e identificar padrões objetivos do ambiente;

Apoio às tecnologias de informação - centrado em assegurar a implementação de determinadas funções (contabilidade e estatística, manutenção de sistema de pessoal, fluxo documental, manutenção de transações financeiras, sistemas de gestão estratégica, etc.);

Tecnologias de informação de comunicação - concebidas para garantir o desenvolvimento das telecomunicações e dos seus sistemas 4

Este artigo também contém uma definição refinada do conceito “sistema de informação”. Na Lei de Informação de 1995, anteriormente em vigor, um sistema de informação era entendido como um conjunto organizacionalmente ordenado de documentos (matrizes de documentos) e tecnologias de informação, incluindo o uso de tecnologia informática e comunicações que implementam processos de informação.

Um sistema de informação é um sistema tecnológico que representa a compatibilidade de meios técnicos, de software e outros meios que combinam estrutural e funcionalmente vários tipos de processos de informação e prestam serviços de informação.

Sinais de um sistema de informação:

Desempenhar uma ou mais funções relacionadas com a informação;

Unidade do sistema (presença de uma base de arquivos comum, padrões e protocolos comuns, gerenciamento unificado);

Possibilidade de composição e decomposição de objetos do sistema ao executar funções específicas (trechos de leis, marcadores - tudo em um arquivo).

Requisitos básicos para o sistema de informação:

Eficiência;

Qualidade da operação (ou seja, precisão, segurança, consistência com os padrões);

Confiabilidade (ou seja, aqueles limites quando o sistema falha em termos de qualidade da informação; tempo de acesso; desempenho;)

Segurança.

O rápido desenvolvimento das tecnologias de informação e telecomunicações exigiu a necessidade de consagrar na legislação um termo como “rede de informação e telecomunicações”. É um sistema tecnológico projetado para transmitir informações por meio de linhas de comunicação, acessadas por meio de tecnologia computacional.

De acordo com o art. 2º da Lei Federal de 7 de julho de 2003 N 126-FZ “Sobre Comunicações” (conforme alterada em 27 de julho de 2006), o conceito de “linhas de comunicação” refere-se a linhas de transmissão, circuitos físicos e estruturas de comunicação linha-cabo.

Em geral, uma rede de informação e telecomunicações é um meio de transmissão de informação sobre o mundo envolvente, os seus objectos, processos e fenómenos, objectivados de uma forma que permite o seu processamento mecânico (decifrado). Por exemplo, a Internet é um tipo de rede de informação e telecomunicações.

A Internet, do ponto de vista técnico, é a maior rede de telecomunicações, formada pela combinação de mais de dez mil e quinhentas redes de telecomunicações de vários tipos. Essa unificação foi possível através da utilização do protocolo internetwork TCP/IP, que desempenha o papel de uma espécie de tradutor de padrões na transmissão de dados entre diferentes tipos de redes de telecomunicações.

A Internet, como espaço global de informação, não reconhece fronteiras estatais e não é apenas o meio mais eficaz de acesso aos recursos de informação acumulados pela humanidade, mas também se torna um meio de divulgação de informação em massa. O funcionamento da rede é um factor poderoso no desenvolvimento e utilização de tecnologias avançadas.

Por outro lado, o uso da Internet está associado à possibilidade de disseminação descontrolada de informações não autorizadas, penetração em sistemas de controle e violação dos direitos humanos, o que sem dúvida requer atenção especial às questões de segurança da informação.

O rápido desenvolvimento da Internet no mundo civilizado está ultrapassando o processo de criação e melhoria dos atos jurídicos regulamentares necessários para regular os problemas emergentes. À medida que a Internet se desenvolve nos últimos anos, os problemas jurídicos da Rede tornam-se cada vez mais relevantes no contexto de uma notável transformação no mundo das abordagens à sua resolução: da ênfase na auto-regulação à regulamentação legal estrita.

Os principais problemas que requerem regulamentação legislativa na Rússia em relação ao desenvolvimento da Internet praticamente não diferem daqueles de outros países desenvolvidos do mundo:

1) garantir uma ligação gratuita à Internet e troca de informações online;

3) proteção de dados pessoais, em particular os dados recolhidos no âmbito das atividades dos operadores de rede (incluindo endereços, números de telefone e outros dados pessoais de assinantes ou compradores no sistema de “comércio eletrónico”);

4) conectar órgãos governamentais à Internet e fornecer aos cidadãos informações sobre as atividades desses órgãos;

5) impedir a divulgação de informações ofensivas e obscenas, apelos ao incitamento ao ódio nacional, racial, religioso, etc.;

6) gestão eletrônica de documentos, assinatura eletrônica, confirmação da autenticidade das informações em produtos de informação, meios de visualização e transmissão de informações;

7) comércio eletrônico;

8) segurança da informação: vírus informáticos, acesso não autorizado à informação, pirataria de servidores e redes, destruição e substituição de informação;

9) utilização de meios de proteção criptográfica;

10) jurisdição: a legislação de qual estado deve ser aplicada para regular as ações realizadas na Internet.

Uma análise da atual legislação russa mostra que as questões de regulamentação jurídica relacionadas com o funcionamento e desenvolvimento do sistema Internet na Rússia formam um extenso quadro regulamentar, incluindo mais de 50 leis federais apenas a nível federal, para não mencionar numerosos atos jurídicos regulamentares de o Presidente e o Governo da Federação Russa. O alcance destes atos legislativos é extremamente amplo e a sua interpretação do ponto de vista das especificidades das relações jurídicas decorrentes da utilização das modernas tecnologias de informação é difícil, até porque quando estas leis foram desenvolvidas não previam as possibilidades correspondentes. É claro que esta área das relações jurídicas também é completamente nova para os tribunais.

A Lei também introduz uma série de outros conceitos. Assim, a Lei Federal adequa o aparato conceitual e os mecanismos regulatórios à prática de utilização das tecnologias de informação, determina o estatuto jurídico das diversas categorias de informação, estabelece disposições no domínio da criação e funcionamento de sistemas de informação, requisitos gerais para o uso de redes de informação e telecomunicações, bem como princípios para regular as relações públicas relacionadas com o uso da informação.

Está estabelecido o princípio da liberdade de pesquisar, receber, transmitir, produzir e divulgar informações por qualquer forma legal. Nesse caso, a restrição de acesso à informação só poderá ser estabelecida por leis federais.

A lei contém disposições destinadas a proteger contra a utilização injusta ou abusiva dos meios de divulgação de informação, em que são impostas informações desnecessárias aos utilizadores. Em particular, as informações devem incluir informações fiáveis ​​sobre o seu proprietário ou sobre outra pessoa que as distribua, numa forma e volume suficientes para identificar essa pessoa. Ao utilizar meios de divulgação de informação que permitam determinar os seus destinatários, incluindo envios postais e mensagens eletrónicas, o divulgador obriga-se a proporcionar ao destinatário da informação a possibilidade de a recusar.

As regras e métodos básicos de proteção dos direitos à informação, a própria informação, são determinados pela tomada de medidas legais, organizacionais e técnicas básicas (software e hardware). Os direitos do proprietário das informações contidas nas bases de dados dos sistemas de informação estão sujeitos a proteção, independentemente dos direitos autorais e outros direitos sobre tais bases de dados.

Dependendo da categoria de acesso à informação, ela é dividida em publicamente disponível, bem como limitada por leis federais (informação restrita). É estabelecida uma lista de informações cujo acesso não pode ser limitado (por exemplo, sobre as atividades dos órgãos governamentais e a utilização de recursos orçamentários), bem como informações fornecidas gratuitamente.

Na literatura jurídica operam principalmente com os conceitos de abertura, abertura, publicidade e transparência, junto com os quais é utilizado o termo “transparência”. Na legislação setorial, esses conceitos são utilizados como princípios fundamentais. O novo termo “transparência”, emprestado da prática estrangeira, está intimamente relacionado com publicidade, abertura, acesso à informação, mas, na verdade, está mais próximo dos termos transparência e acessibilidade.

É proibido exigir ao cidadão (pessoa física) o fornecimento de informações sobre a sua vida privada, incluindo informações que constituam segredo pessoal ou familiar, e de receber tais informações contra a vontade do cidadão (pessoa física). Exceções só poderão ser feitas nos casos previstos em leis federais.

Curiosamente, o texto desta Lei não inclui alguns conceitos utilizados na Lei de Informação de 1995, anteriormente em vigor. Tais conceitos são “informatização”, “processos de informação”, “recursos de informação”, “informações sobre os cidadãos (dados pessoais) ” , "meios para fornecer sistemas de informação automatizados."

A ausência dos termos “informatização” e “recursos de informação” na nova Lei Federal parece ser uma omissão, pois Estes conceitos já são amplamente utilizados não só em atos legislativos e outros atos jurídicos regulamentares (por exemplo, no Código Aduaneiro da Federação Russa, etc.), mas também estão firmemente enraizados no domínio da aplicação da legislação de informação.

Os elaboradores desta Lei Federal, excluindo do texto o conceito de “informatização”, partiram do fato de que ela, em princípio, tem o direito de existir, mas não tem lugar nos textos jurídicos, pois Você pode colocar conteúdo diferente nele. Foi justamente pela ambiguidade que sua utilização no texto da Lei Federal anterior, principalmente em seu título, não foi, na opinião deles, a ideia de trabalho mais bem-sucedida. Além disso, os elaboradores da nova Lei Federal referem-se à ausência deste termo na legislação estrangeira.

No entanto, é difícil concordar com esta posição, porque Durante a vigência da Lei de Informação de 1995, foram adotados vários atos legislativos destinados à formação e utilização de recursos de informação e à definição das normas de uma série de atos codificados (Código Penal da Federação Russa, Código de Ofensas Administrativas de a Federação Russa de 30 de dezembro de 2001 N 195-FZ (conforme alterada em 26 de julho de 2006)). A terminologia da anterior Lei da Informação de 1995 foi utilizada em muitos regulamentos. Além disso, a legislação estrangeira opera, por exemplo, com o termo “informatização”. Assim, parece que o termo “informatização” não exigiu a remoção da legislação russa em matéria de informação.

A exclusão da definição de “recursos de informação” da Lei também foi, na minha opinião, infundada. Além disso, por exemplo, na mesma Lei na Parte 9 do art. 14 contém a indicação de que as informações contidas nos sistemas de informação estaduais, bem como outras informações e documentos à disposição dos órgãos estaduais são recursos de informação estaduais.

Gostaria de salientar que a falta de clareza de determinados termos, bem como as alterações por vezes infundadas nas definições dos conceitos utilizados na legislação da informação, não contribuem para a melhoria da regulamentação jurídica na esfera da informação.

A falta de definição do conceito de “dados pessoais” é explicada pelo fato de que quase simultaneamente à nova Lei Federal foi adotada a Lei Federal nº 152-FZ de 27 de julho de 2006 “Sobre Dados Pessoais”, que garante o proteção dos direitos e liberdades do homem e do cidadão no tratamento dos seus dados pessoais, incluindo a proteção dos direitos à privacidade e aos segredos pessoais e familiares.

Concluindo a consideração desta questão, deve-se notar que um número significativo de termos relacionados ao conceito de informação está contido em leis especializadas como “Sobre Comunicações”, “Sobre Segredos de Estado”, “Sobre Inteligência Estrangeira”, etc.