Informacja to dane w różnych formach.  Pojęcie informacji.  Informatyka Informacje wydają się, że

Informacja to dane w różnych formach. Pojęcie informacji. Informatyka Informacje wydają się, że

Informacja to informacja o czymś

Pojęcie i rodzaje informacji, przekazywanie i przetwarzanie, wyszukiwanie i przechowywanie informacji

Rozwiń zawartość

Zwiń zawartość

Informacja to definicja

Informacja jest wszelkie informacje otrzymane i przesłane, przechowywane przez różne źródła. Informacja to cały zbiór informacji o otaczającym nas świecie, o wszelkiego rodzaju procesach w nim zachodzących, który może być postrzegany przez organizmy żywe, maszyny elektroniczne i inne systemy informacyjne.

- Ten istotna informacja o czymś, gdy forma jej przedstawienia jest jednocześnie informacją, czyli pełni funkcję formatującą zgodnie ze swą naturą.

Informacja jest wszystko co da się uzupełnić naszą wiedzą i założeniami.

Informacja jest informacja o czymś, niezależnie od formy jej przedstawienia.

Informacja jest mentalny produkt każdego organizmu psychofizycznego, wytworzony przez niego za pomocą jakichkolwiek środków, zwany nośnikiem informacji.

Informacja jest informacje postrzegane przez ludzi i (lub) specjalistów. urządzenia jako odzwierciedlenie faktów świata materialnego lub duchowego w procesie komunikacji.

Informacja jest dane zorganizowane w taki sposób, aby miały sens dla osoby, która je przetwarza.

Informacja jest znaczenie, jakie dana osoba przywiązuje do danych w oparciu o znane konwencje stosowane do ich reprezentacji.


Informacja jest informacja, wyjaśnienie, prezentacja.

Informacja jest wszelkie dane lub informacje, które kogokolwiek interesują.

Informacja jest informacja o obiektach i zjawiskach środowiska, ich parametrach, właściwościach i stanie, które są postrzegane przez systemy informacyjne (organizmy żywe, maszyny sterujące itp.) w procesie życia i pracy.

Ten sam przekaz informacyjny (artykuł w gazecie, ogłoszenie, list, telegram, zaświadczenie, opowiadanie, rysunek, audycja radiowa itp.) może zawierać różną ilość informacji dla różnych osób – w zależności od ich wcześniejszej wiedzy, stopnia zrozumienia tego przekazu i zainteresowanie nim.

W przypadkach, gdy mówią o zautomatyzowanej pracy z informacją przy użyciu jakichkolwiek urządzeń technicznych, nie interesuje ich treść komunikatu, ale to, ile znaków ta wiadomość zawiera.

W odniesieniu do komputerowego przetwarzania danych przez informację rozumie się pewien ciąg oznaczeń symbolicznych (litery, cyfry, zakodowane obrazy graficzne i dźwięki itp.), niosący ładunek semantyczny i przedstawiony w formie zrozumiałej dla komputera. Każdy nowy znak w takim ciągu znaków zwiększa objętość informacyjną komunikatu.


Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Przykładowo, na kursie informatyki pojęcie „informacja” jest podstawowe i nie da się go zdefiniować innymi, „prostszymi” pojęciami (podobnie jak na przykład w geometrii nie da się wyrazić treści podstawowe pojęcia „punkt”, „linia”, „płaszczyzna” poprzez prostsze pojęcia).


Treść podstawowych, podstawowych pojęć w każdej nauce należy wyjaśnić przykładami lub zidentyfikować poprzez porównanie ich z treścią innych pojęć. W przypadku pojęcia „informacja” problem jego definicji jest jeszcze bardziej złożony, gdyż jest to pojęcie ogólnonaukowe. Pojęcie to wykorzystywane jest w różnych naukach (informatyka, cybernetyka, biologia, fizyka itp.), a w każdej nauce pojęcie „informacji” kojarzone jest z różnymi systemami pojęć.


Koncepcja informacji

We współczesnej nauce rozważa się dwa rodzaje informacji:

Informacja obiektywna (pierwotna) to właściwość obiektów materialnych i zjawisk (procesów) polegająca na generowaniu różnorodnych stanów, które poprzez interakcje (interakcje fundamentalne) są przekazywane innym obiektom i odciśnięte w ich strukturze.

Informacja subiektywna (semantyczna, semantyczna, wtórna) to semantyczna treść obiektywnej informacji o obiektach i procesach świata materialnego, utworzona przez ludzką świadomość za pomocą obrazów semantycznych (słów, obrazów i wrażeń) i zapisana na jakimś materialnym nośniku.


W potocznym rozumieniu informacja to informacja o otaczającym świecie i zachodzących w nim procesach, postrzegana przez człowieka lub specjalne urządzenie.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Według koncepcji K. Shannona informacja jest usuwana z niepewności, tj. informacja, która powinna w takim czy innym stopniu usunąć niepewność istniejącą u konsumenta przed jej otrzymaniem i poszerzyć jego zrozumienie przedmiotu o przydatne informacje.


Z punktu widzenia Gregory'ego Betona podstawową jednostką informacji jest „różnica nieobojętna” lub różnica efektywna dla jakiegoś większego systemu postrzegania. Te różnice, które nie są postrzegane, nazywa „potencjalnymi”, a te, które są postrzegane jako „skuteczne”. „Informacja składa się z różnic, które nie są obojętne” (c) „Każde postrzeganie informacji jest z konieczności otrzymaniem informacji o różnicy”. Z punktu widzenia informatyki informacja ma szereg podstawowych właściwości: nowość, trafność, wiarygodność, obiektywność, kompletność, wartość itp. Nauka logiczna zajmuje się przede wszystkim analizą informacji. Słowo „informacja” pochodzi od łacińskiego słowa informatio, które w tłumaczeniu oznacza informację, wyjaśnienie, zapoznanie. Pojęcie informacji rozważali starożytni filozofowie.

Przed rozpoczęciem rewolucji przemysłowej określenie istoty informacji pozostawało prerogatywą głównie filozofów. Następnie nowa nauka, cybernetyka, zaczęła rozważać zagadnienia teorii informacji.

Czasami, aby zrozumieć istotę pojęcia, warto przeanalizować znaczenie słowa, którym to pojęcie jest oznaczane. Wyjaśnienie wewnętrznej formy słowa i przestudiowanie historii jego użycia może rzucić nieoczekiwane światło na jego znaczenie, przyćmione zwykłym „technologicznym” użyciem tego słowa i współczesnymi konotacjami.

Słowo informacja weszło do języka rosyjskiego w epoce Piotrowej. Po raz pierwszy zostało ono odnotowane w „Przepisach duchowych” z 1721 r. w znaczeniu „idei, koncepcji czegoś”. (W językach europejskich ustalono to wcześniej - około XIV wieku.)

W oparciu o tę etymologię za informację można uznać każdą znaczącą zmianę kształtu lub, innymi słowy, wszelkie materialnie zapisane ślady powstałe w wyniku interakcji obiektów lub sił i możliwe do zrozumienia. Informacja jest zatem przekształconą formą energii. Nośnikiem informacji jest znak, a sposobem jej istnienia jest interpretacja: określenie znaczenia znaku lub ciągu znaków.

Znaczeniem może być zdarzenie odtworzone ze znaku, który spowodował jego wystąpienie (w przypadku znaków „naturalnych” i mimowolnych, takich jak ślady, dowody itp.) lub przekaz (w przypadku znaków konwencjonalnych, tkwiących w sferze języka). To drugi rodzaj znaków tworzący korpus kultury ludzkiej, który według jednej z definicji stanowi „zestaw informacji niedziedzicznie przekazywanych”.

Wiadomości mogą zawierać informacje o faktach lub ich interpretację (z języka łacińskiego interpretatio, interpretacja, tłumaczenie).

Żywa istota otrzymuje informacje za pośrednictwem zmysłów, a także poprzez refleksję lub intuicję. Wymiana informacji między podmiotami to komunikacja lub komunikacja (od łac. lecommunications, wiadomość, przekaz, wywodzące się z kolei od łac. communico, tworzyć wspólny, komunikować się, rozmawiać, łączyć).

Z praktycznego punktu widzenia informacja jest zawsze prezentowana w formie komunikatu. Komunikat informacyjny jest powiązany ze źródłem komunikatu, odbiorcą komunikatu i kanałem komunikacji.


Wracając do łacińskiej etymologii słowa informacja, spróbujmy odpowiedzieć na pytanie, jaką dokładnie formę ma tu nadana.

Jest rzeczą oczywistą, że po pierwsze do pewnego znaczenia, które początkowo jest bezkształtne i niewyrażone, istnieje jedynie potencjalnie i musi zostać „zbudowane”, aby zostało dostrzeżone i przekazane.

Po drugie, do ludzkiego umysłu, który jest wyszkolony do myślenia strukturalnego i jasnego. Po trzecie, społeczeństwu, które właśnie dzięki temu, że jego członkowie podzielają te znaczenia i wspólnie z nich korzystają, zyskuje jedność i funkcjonalność.

Informacja w rozumieniu inteligentnego znaczenia to wiedza, która może być przechowywana, przekazywana i stanowić podstawę do generowania innej wiedzy. Formy utrwalania wiedzy (pamięci historycznej) są różnorodne: od mitów, kronik i piramid po biblioteki, muzea i komputerowe bazy danych.

Informacja to informacja o otaczającym nas świecie, o procesach w nim zachodzących, które są postrzegane przez organizmy żywe, maszyny sterujące i inne systemy informacyjne.

Słowo „informacja” pochodzi z łaciny. W ciągu długiego życia jego znaczenie przeszło ewolucję, rozszerzając się lub skrajnie zawężając jego granice. Początkowo słowo „informacja” oznaczało: „reprezentację”, „koncepcję”, następnie „informację”, „przekaz komunikatów”.


W ostatnich latach naukowcy uznali, że zwykłe (powszechnie akceptowane) znaczenie słowa „informacja” jest zbyt elastyczne i niejasne, i nadali mu następujące znaczenie: „miara pewności w przekazie”.

Teoria informacji zrodziła się z potrzeb praktyki. Jego pochodzenie wiąże się z pracą Claude'a Shannona „Matematyczna teoria komunikacji”, opublikowaną w 1946 roku. Podstawy teorii informacji opierają się na wynikach uzyskanych przez wielu naukowców. W drugiej połowie XX wieku na całym świecie pełno było informacji przesyłanych kablami telefonicznymi i telegraficznymi oraz kanałami radiowymi. Później pojawiły się komputery elektroniczne - procesory informacji. I w tym czasie głównym zadaniem teorii informacji było przede wszystkim zwiększenie wydajności systemów komunikacyjnych. Trudność w projektowaniu i obsłudze środków, systemów i kanałów komunikacji polega na tym, że projektant i inżynier nie wystarczy rozwiązać problem z punktu widzenia fizycznego i energetycznego. Z tych punktów widzenia system może być najbardziej zaawansowany i ekonomiczny. Jednak tworząc systemy transmisji, należy zwrócić uwagę na to, ile informacji przejdzie przez ten system transmisji. Przecież informację można mierzyć ilościowo, policzyć. I w takich obliczeniach postępują najzwyczajniej: abstrahują od znaczenia przekazu, tak jak porzucają konkretność w znanych nam wszystkim operacjach arytmetycznych (przechodząc od dodawania dwóch jabłek i trzech jabłek do dodawania liczb ogólnie: 2 + 3).


Naukowcy stwierdzili, że „całkowicie zignorowali ocenę informacji przez człowieka”. Na przykład kolejnemu ciągowi 100 liter przypisują informację określone znaczenie, nie zwracając uwagi na to, czy informacja ta ma sens i czy ma to z kolei sens w praktycznym zastosowaniu. Podejście ilościowe jest najbardziej rozwiniętą gałęzią teorii informacji. Zgodnie z tą definicją zbiór 100 liter – 100-literowe zdanie z gazety, sztuki Szekspira czy twierdzenia Einsteina – zawiera dokładnie tę samą ilość informacji.


Ta definicja ilości informacji jest niezwykle użyteczna i praktyczna. Odpowiada to dokładnie zadaniu inżyniera łączności, który musi przekazać wszystkie informacje zawarte w przesłanym telegramie, niezależnie od wartości tej informacji dla adresata. Kanał komunikacji jest bezduszny. Dla systemu transmisji ważne jest jedno: przekazać wymaganą ilość informacji w określonym czasie. Jak obliczyć ilość informacji w konkretnej wiadomości?

Ocena ilości informacji opiera się na prawach teorii prawdopodobieństwa, a dokładniej, jest ustalana poprzez prawdopodobieństwa zdarzeń. To jest zrozumiałe. Komunikat ma wartość i niesie informację tylko wtedy, gdy dowiadujemy się z niego o wyniku zdarzenia o charakterze losowym, gdy jest ono w pewnym stopniu nieoczekiwane. Przecież wiadomość o tym, co już wiadomo, nie zawiera żadnych informacji. Te. Jeśli na przykład ktoś do Ciebie zadzwoni i powie: „W dzień jest jasno, w nocy ciemno”, to taka wiadomość zaskoczy Cię jedynie absurdem stwierdzenia czegoś oczywistego i znanego wszystkim, a nie zawarte w nim wiadomości. Inną rzeczą jest na przykład wynik wyścigu. Kto przyjdzie pierwszy? Wynik jest tutaj trudny do przewidzenia. Im bardziej losowe skutki ma interesujące nas wydarzenie, tym cenniejszy jest przekaz o jego wyniku, tym więcej informacji. Wiadomość o zdarzeniu, które ma tylko dwa równie możliwe wyniki, zawiera pojedynczą jednostkę informacji zwaną bitem. Wybór jednostki informacyjnej nie jest przypadkowy. Jest to związane z najpopularniejszym binarnym sposobem kodowania go podczas transmisji i przetwarzania. Spróbujmy, przynajmniej w najbardziej uproszczonej formie, wyobrazić sobie ogólną zasadę ilościowej oceny informacji, która jest kamieniem węgielnym wszelkiej teorii informacji.


Wiemy już, że ilość informacji zależy od prawdopodobieństwa określonych wyników zdarzenia. Jeśli zdarzenie, jak mówią naukowcy, ma dwa równie prawdopodobne wyniki, oznacza to, że prawdopodobieństwo każdego wyniku wynosi 1/2. Jest to prawdopodobieństwo wyrzucenia orła lub reszki podczas rzucania monetą. Jeśli zdarzenie ma trzy równie prawdopodobne wyniki, prawdopodobieństwo każdego z nich wynosi 1/3. Należy pamiętać, że suma prawdopodobieństw wszystkich wyników jest zawsze równa jeden: w końcu jeden ze wszystkich możliwych wyników na pewno wystąpi. Zdarzenie, jak sam rozumiesz, może mieć nierówno prawdopodobne wyniki. Zatem w meczu piłkarskim pomiędzy silną i słabą drużyną prawdopodobieństwo wygranej mocnej drużyny jest wysokie – na przykład 4/5. Prawdopodobieństwo remisu jest znacznie niższe, na przykład 3/20. Prawdopodobieństwo porażki jest bardzo małe.


Okazuje się, że ilość informacji jest miarą zmniejszania niepewności danej sytuacji. Kanałami komunikacyjnymi przesyłana jest różna ilość informacji, a ilość informacji przechodzących przez ten kanał nie może być większa niż jego pojemność. Zależy to od tego, ile informacji przepływa tutaj w jednostce czasu. Jeden z bohaterów powieści Juliusza Verne’a Tajemnicza wyspa, dziennikarz Gideon Spillett, przekazał telefonicznie rozdział Biblii, aby jego konkurenci nie mogli korzystać z łącza telefonicznego. W tym przypadku kanał był w pełni załadowany, a ilość informacji była równa zeru, ponieważ znane mu informacje zostały przesłane do abonenta. Oznacza to, że kanał pracował na biegu jałowym, przepuszczając ściśle określoną liczbę impulsów, nie obciążając ich niczym. Tymczasem im więcej informacji niesie każdy z określonej liczby impulsów, tym pełniej wykorzystywana jest pojemność kanału. Trzeba zatem mądrze kodować informacje, znaleźć oszczędny, oszczędny język do przekazywania komunikatów.


Informacje są „przesiewane” w najdokładniejszy sposób. W telegrafie często występujące litery, kombinacje liter, a nawet całe frazy są reprezentowane przez krótszy zestaw zer i jedynek, a te, które występują rzadziej, są reprezentowane przez dłuższy zestaw. W przypadku, gdy długość słowa kodowego jest zmniejszana dla symboli często występujących, a zwiększana dla rzadko występujących, mówi się o skutecznym kodowaniu informacji. Jednak w praktyce często zdarza się, że kod, który powstał w wyniku najdokładniejszego „przesiewania”, kod jest wygodny i ekonomiczny, może zniekształcić przekaz na skutek zakłóceń, co niestety zawsze ma miejsce w kanałach komunikacji: dźwięk zniekształcenia w telefonie, zakłócenia atmosferyczne w radiu, zniekształcenie lub przyciemnienie obrazu w telewizji, błędy transmisji w telegrafie. Ta ingerencja, lub jak to nazywają eksperci, szum, atakuje informację. A to skutkuje najbardziej niesamowitymi i oczywiście nieprzyjemnymi niespodziankami.


Dlatego, aby zwiększyć niezawodność transmisji i przetwarzania informacji, konieczne jest wprowadzenie dodatkowych znaków - swego rodzaju zabezpieczenie przed zniekształceniami. One – te dodatkowe symbole – nie niosą ze sobą faktycznej treści przekazu, są zbędne. Z punktu widzenia teorii informacji wszystko, co czyni język kolorowym, elastycznym, bogatym w odcienie, wieloaspektowym, wielowartościowym, to redundancja. Jakże zbędny jest z tego punktu widzenia list Tatiany do Oniegina! Ileż w nim nadmiaru informacji w krótkim i zrozumiałym przekazie „Kocham Cię”! I jak dokładne informacyjnie są ręcznie rysowane znaki, zrozumiałe dla każdego, kto dziś wchodzi do metra, gdzie zamiast słów i zwrotów ogłoszeń widnieją lakoniczne symboliczne znaki wskazujące: „Wejście”, „Wyjście”.


W tym miejscu warto przypomnieć anegdotę opowiedzianą kiedyś przez słynnego amerykańskiego naukowca Benjamina Franklina o twórcy kapeluszy, który zaprosił swoich przyjaciół do omówienia projektu znaku. Miał on narysować kapelusz na znaku i napisać: „John Thompson , kapelusznik, produkuje i sprzedaje kapelusze za gotówkę. Jeden ze znajomych zauważył, że słowa „za gotówkę” są niepotrzebne – takie przypomnienie byłoby obraźliwe dla kupującego. Inny również uznał, że słowo „sprzedaje” jest zbyteczne, skoro nie trzeba dodawać, że kapelusznik sprzedaje kapelusze i nie rozdaje ich za darmo. Trzeci uważał, że słowa „kapelusznik” i „robi kapelusze” są niepotrzebną tautologią i te ostatnie słowa zostały wyrzucone. Czwarty sugerował, że słowo „kapelusznik” również należy wyrzucić – pomalowany kapelusz wyraźnie mówi, kim jest John Thompson. Wreszcie piąty upierał się, że dla kupującego nie ma absolutnie żadnego znaczenia, czy kapelusznik nazywał się John Thompson, czy jakoś inaczej, i zasugerował, aby zrezygnować z tego oznaczenia. W ten sposób ostatecznie na znaku nie pozostało nic poza kapeluszem. Oczywiście, gdyby ludzie używali tylko tego rodzaju kodów, bez zbędnych przekazów, wówczas wszystkie „formularze informacyjne” – książki, raporty, artykuły – byłyby niezwykle krótkie. Ale straciliby na przejrzystości i pięknie.

Informacje można podzielić na typy według różnych kryteriów: wprawdzie: prawda i fałsz;

w drodze percepcji:

Wizualny - postrzegany przez narządy wzroku;

Słuchowe - odbierane przez narządy słuchu;

Dotykowy - postrzegany przez receptory dotykowe;

Węchowy - odbierany przez receptory węchowe;

Smakowe - odbierane przez kubki smakowe.


według formularza prezentacji:

Tekst – przekazywany w postaci symboli mających oznaczać leksemy języka;

Numeryczne - w postaci liczb i znaków wskazujących działania matematyczne;

Grafika – w formie obrazów, obiektów, wykresów;

Dźwięk - ustne lub nagrane przekazywanie leksemów językowych za pomocą środków słuchowych.


według celu:

Masa – zawiera trywialne informacje i operuje zestawem pojęć zrozumiałych dla większości społeczeństwa;

Specjalny - zawiera określony zestaw pojęć; w przypadku użycia przekazywane są informacje, które mogą być niezrozumiałe dla większości społeczeństwa, ale są konieczne i zrozumiałe w wąskiej grupie społecznej, w której te informacje są wykorzystywane;

Sekretne – przekazywane wąskiemu kręgowi osób i zamkniętymi (chronionymi) kanałami;

Osobisty (prywatny) - zbiór informacji o osobie, który określa status społeczny i rodzaje interakcji społecznych w populacji.


według wartości:

Istotne – informacje, które są wartościowe w danym momencie;

Rzetelne – informacja uzyskana bez zniekształceń;

Zrozumiały – informacja wyrażona językiem zrozumiałym dla osób, dla których jest przeznaczona;

Kompletny – informacje wystarczające do podjęcia właściwej decyzji lub zrozumienia;

Przydatne – o przydatności informacji decyduje podmiot, który ją otrzymał, w zależności od zakresu możliwości jej wykorzystania.


Wartość informacji w różnych dziedzinach wiedzy

Obecnie w teorii informacji opracowywanych jest wiele systemów, metod, podejść i pomysłów. Naukowcy uważają jednak, że do współczesnych kierunków teorii informacji dołączą się nowe i pojawią się nowe idee. Jako dowód słuszności swoich założeń przytaczają „żywy”, rozwijający się charakter nauki, wskazując, że teoria informacji zaskakująco szybko i stanowczo zostaje wprowadzona w najróżniejsze obszary ludzkiej wiedzy. Teoria informacji przeniknęła do fizyki, chemii, biologii, medycyny, filozofii, językoznawstwa, pedagogiki, ekonomii, logiki, nauk technicznych i estetyki. Zdaniem samych ekspertów doktryna informacji, która powstała na potrzeby teorii komunikacji i cybernetyki, przekroczyła ich granice. I teraz być może mamy prawo mówić o informacji jako o koncepcji naukowej, która oddaje w ręce badaczy metodę teoretyczno-informacyjną, dzięki której można przeniknąć do wielu nauk o przyrodzie żywej i nieożywionej, o społeczeństwie, które nie tylko pozwalają spojrzeć na wszystkie problemy z nowej perspektywy, ale także zobaczyć to, czego jeszcze nie było. Dlatego też termin „informacja” stał się w naszych czasach powszechny, wchodząc w skład takich pojęć, jak system informacyjny, kultura informacyjna, a nawet etyka informacyjna.


Wiele dyscyplin naukowych wykorzystuje teorię informacji do uwypuklenia nowych kierunków w starych naukach. W ten sposób powstała na przykład geografia informacji, ekonomia informacji i prawo informacyjne. Jednak termin „informacja” nabrał niezwykle dużego znaczenia w związku z rozwojem najnowszej technologii komputerowej, automatyzacją pracy umysłowej, rozwojem nowych środków komunikacji i przetwarzania informacji, a zwłaszcza wraz z pojawieniem się informatyki. Jednym z najważniejszych zadań teorii informacji jest badanie natury i właściwości informacji, tworzenie metod jej przetwarzania, w szczególności przekształcanie szerokiej gamy współczesnych informacji na programy komputerowe, za pomocą których automatyzacja następuje praca umysłowa - swego rodzaju wzmocnienie inteligencji, a co za tym idzie rozwój zasobów intelektualnych społeczeństwa.


Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kursie informatyki, jednak nie da się go zdefiniować za pomocą innych, bardziej „prostych” pojęć. Pojęcie „informacja” jest stosowane w różnych naukach, a w każdej nauce pojęcie „informacji”. informacja” wiąże się z różnymi systemami pojęć. Informacja w biologii: Biologia bada przyrodę żywą, a pojęcie „informacji” wiąże się z właściwym zachowaniem organizmów żywych. W organizmach żywych informacja jest przekazywana i przechowywana za pomocą obiektów o różnej naturze fizycznej (stan DNA), które są uważane za znaki alfabetów biologicznych. Informacja genetyczna jest dziedziczona i przechowywana we wszystkich komórkach organizmów żywych. Podejście filozoficzne: Informacja to interakcja, refleksja, poznanie. Podejście cybernetyczne: Informacja to charakterystyka sygnału sterującego przesyłanego linią komunikacyjną.

Rola informacji w filozofii

We wczesnych definicjach informacji jako kategorii, pojęcia, właściwości świata materialnego stale dominował tradycjonalizm podmiotowości. Informacja istnieje poza naszą świadomością i może znaleźć odzwierciedlenie w naszej percepcji jedynie w wyniku interakcji: refleksji, odczytania, odbioru w postaci sygnału, bodźca. Informacja nie jest materialna, jak wszystkie właściwości materii. Informacja jest uporządkowana w następujący sposób: materia, przestrzeń, czas, systematyczność, funkcja itp., które są podstawowymi pojęciami sformalizowanego odzwierciedlenia obiektywnej rzeczywistości w jej rozmieszczeniu i zmienności, różnorodności i przejawach. Informacja jest właściwością materii i odzwierciedla jej właściwości (stan lub zdolność do interakcji) oraz ilość (miarę) poprzez interakcję.


Z materialnego punktu widzenia informacja jest porządkiem obiektów w świecie materialnym. Na przykład kolejność liter na kartce papieru według określonych zasad jest informacją pisemną. Kolejność wielobarwnych kropek na kartce papieru według pewnych zasad jest informacją graficzną. Kolejność nut jest informacją muzyczną. Kolejność genów w DNA jest informacją dziedziczną. Kolejność bitów w komputerze to informacja komputerowa itp. i tak dalej. Aby przeprowadzić wymianę informacji, wymagana jest obecność warunków niezbędnych i wystarczających.

Niezbędne warunki:

Obecność co najmniej dwóch różnych obiektów świata materialnego lub niematerialnego;

Obecność wspólnej właściwości obiektów, która pozwala na ich identyfikację jako nośnika informacji;

Obecność określonej właściwości obiektów, która pozwala im odróżnić obiekty od siebie;

Obecność właściwości przestrzeni, która pozwala określić kolejność obiektów. Na przykład układ informacji pisanych na papierze jest specyficzną właściwością papieru, która umożliwia układanie liter od lewej do prawej i od góry do dołu.


Jest tylko jeden warunek wystarczający: obecność podmiotu zdolnego do rozpoznania informacji. To człowiek i społeczeństwo ludzkie, społeczeństwa zwierząt, robotów itp. Przekaz informacyjny konstruowany jest poprzez wybranie z bazy kopii obiektów i ułożenie tych obiektów w przestrzeni w określonej kolejności. Długość komunikatu informacyjnego jest definiowana jako liczba kopii obiektów bazowych i zawsze wyrażana jest jako liczba całkowita. Należy rozróżnić długość przekazu informacyjnego, mierzoną zawsze liczbą całkowitą, od ilości wiedzy zawartej w przekazie informacyjnym, mierzonej w nieznanej jednostce miary. Z matematycznego punktu widzenia informacja to ciąg liczb całkowitych zapisanych w wektorze. Liczby są numerami obiektów w bazie informacyjnej. Wektor nazywany jest niezmiennikiem informacyjnym, ponieważ nie zależy od fizycznej natury obiektów bazowych. Ten sam przekaz informacyjny może być wyrażony w literach, słowach, zdaniach, plikach, obrazach, notatkach, piosenkach, klipach wideo lub dowolnej kombinacji wszystkich powyższych.

Rola informacji w fizyce

Informacja to informacja o otaczającym ją świecie (obiekcie, procesie, zjawisku, zdarzeniu), która jest przedmiotem transformacji (w tym przechowywania, transmisji itp.) i służy kształtowaniu zachowań, podejmowaniu decyzji, zarządzaniu czy uczeniu się.


Charakterystycznymi cechami informacji są:

Jest to najważniejszy zasób współczesnej produkcji: zmniejsza zapotrzebowanie na ziemię, pracę, kapitał, zmniejsza zużycie surowców i energii. Jeśli więc na przykład masz możliwość archiwizacji plików (tj. posiadasz takie informacje), nie musisz wydawać pieniędzy na zakup nowych dyskietek;

Informacje ożywiają nowe produkcje. Przykładowo wynalezienie wiązki laserowej było przyczyną powstania i rozwoju produkcji dysków laserowych (optycznych);

Informacja jest towarem i sprzedawca informacji nie traci jej po sprzedaży. Jeśli więc student w trakcie semestru przekaże koledze informację o planie zajęć, nie straci tych danych dla siebie;

Informacje dodają wartość innym zasobom, w szczególności pracy. Rzeczywiście, pracownik z wyższym wykształceniem jest ceniony bardziej niż ten z wykształceniem średnim.


Jak wynika z definicji, z informacją zawsze kojarzone są trzy pojęcia:

Źródłem informacji jest ten element otaczającego świata (obiekt, proces, zjawisko, zdarzenie), o którym informacja jest przedmiotem transformacji. Zatem źródłem informacji, jakie obecnie otrzymuje czytelnik tego podręcznika, jest informatyka jako dziedzina działalności człowieka;

Konsument informacji to ten element otaczającego świata, który wykorzystuje informacje (do kształtowania zachowań, podejmowania decyzji, zarządzania lub uczenia się). Konsumentem tych informacji jest sam czytelnik;

Sygnał to materialny nośnik, który rejestruje informację w celu przekazania jej ze źródła do konsumenta. W tym przypadku sygnał ma charakter elektroniczny. Jeżeli uczeń zabierze ten podręcznik z biblioteki, wówczas te same informacje będą zapisane na papierze. Informacje, przeczytane i zapamiętane przez ucznia, nabiorą innego nośnika – biologicznego, gdy zostaną „zapisane” w pamięci ucznia.


Sygnał jest najważniejszym elementem w tym obwodzie. Formy jej prezentacji oraz istotne dla odbiorcy informacji cechy ilościowe i jakościowe zawartych w niej informacji omówiono w dalszej części podręcznika. Główne cechy komputera jako głównego narzędzia przekształcającego źródło informacji w sygnał (link 1 na rysunku) i „dostarczającego” sygnał do konsumenta informacji (link 2 na rysunku) podano w części Komputer . Struktura procedur realizujących połączenia 1 i 2 tworzących proces informacyjny jest przedmiotem rozważań w części Proces informacyjny.

Obiekty świata materialnego znajdują się w stanie ciągłej zmiany, która charakteryzuje się wymianą energii pomiędzy obiektem a otoczeniem. Zmiana stanu jednego obiektu zawsze prowadzi do zmiany stanu innego obiektu środowiska. Zjawisko to, niezależnie od tego jak, jakie stany i jakie obiekty uległy zmianie, można uznać za przekazywanie sygnału z jednego obiektu na drugi. Zmiana stanu obiektu po przesłaniu do niego sygnału nazywana jest rejestracją sygnału.


Sygnał lub sekwencja sygnałów tworzy komunikat, który odbiorca może odebrać w takiej czy innej formie, a także w takiej czy innej objętości. Informacja w fizyce to termin, który jakościowo uogólnia pojęcia „sygnał” i „wiadomość”. Jeśli sygnały i komunikaty można określić ilościowo, wówczas możemy powiedzieć, że sygnały i komunikaty są jednostkami miary objętości informacji. Komunikat (sygnał) jest różnie interpretowany przez różne systemy. Na przykład kolejno długi i dwa krótkie dźwięki w terminologii alfabetu Morse'a to litera de (lub D), w terminologii BIOS-u od AWARD - awaria karty graficznej.

Rola informacji w matematyce

W matematyce teoria informacji (teoria komunikacji matematycznej) jest działem matematyki stosowanej, który definiuje pojęcie informacji, jej właściwości oraz ustanawia zależności ograniczające dla systemów transmisji danych. Główne gałęzie teorii informacji to kodowanie źródłowe (kodowanie kompresyjne) i kodowanie kanałowe (odporne na szumy). Matematyka to coś więcej niż dyscyplina naukowa. Tworzy jednolity język dla całej nauki.


Przedmiotem badań matematyki są obiekty abstrakcyjne: liczba, funkcja, wektor, zbiór i inne. Co więcej, większość z nich jest wprowadzana aksjomatycznie (aksjomat), tj. bez żadnego związku z innymi pojęciami i bez jakiejkolwiek definicji.

Informacja nie jest częścią nauki matematyki. Jednakże słowo „informacja” używane jest w kategoriach matematycznych – samoinformacji i informacji wzajemnej, związanych z abstrakcyjną (matematyczną) częścią teorii informacji. Jednak w teorii matematycznej pojęcie „informacji” kojarzy się wyłącznie z obiektami abstrakcyjnymi – zmiennymi losowymi, natomiast we współczesnej teorii informacji pojęcie to jest rozpatrywane znacznie szerzej – jako właściwość obiektów materialnych. Związek między tymi dwoma identycznymi terminami jest niezaprzeczalny. To właśnie matematycznego aparatu liczb losowych używał twórca teorii informacji, Claude Shannon. On sam pod pojęciem „informacji” rozumie coś fundamentalnego (nieredukowalnego). Teoria Shannona intuicyjnie zakłada, że ​​informacja ma treść. Informacja zmniejsza ogólną niepewność i entropię informacji. Ilość informacji jest mierzalna. Przestrzega jednak badaczy przed mechanicznym przenoszeniem pojęć ze swojej teorii do innych dziedzin nauki.


„Poszukiwanie sposobów zastosowania teorii informacji w innych dziedzinach nauki nie sprowadza się do trywialnego przeniesienia terminów z jednej dziedziny nauki do drugiej. Poszukiwanie to odbywa się w długim procesie stawiania nowych hipotez i ich eksperymentalnego sprawdzania .” K. Shannona.

Rola informacji w cybernetyce

Założyciel cybernetyki, Norbert Wiener, mówił o takich informacjach:

Informacja nie jest materią ani energią, informacja jest informacją.” Jednak podstawowa definicja informacji, którą podał w kilku swoich książkach, jest następująca: informacja to określenie treści otrzymywanej przez nas ze świata zewnętrznego, w procesie dostosowując nas i nasze uczucia.

Informacja jest podstawowym pojęciem cybernetyki, podobnie jak informacja ekonomiczna jest podstawowym pojęciem cybernetyki ekonomicznej.


Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem jest oczywiście to, że cybernetyką jako zjawiskiem zajmują się różne nauki, a cybernetyka jest dopiero najmłodszą z nich. Informacja jest przedmiotem badań takich nauk, jak nauki o zarządzaniu, statystyka matematyczna, genetyka, teoria środków masowego przekazu (prasa, radio, telewizja), informatyka, która zajmuje się problematyką informacji naukowo-technicznej itp. Wreszcie w ostatnimi czasy filozofowie wykazują duże zainteresowanie problematyką energii: skłonni są uważać energię za jedną z głównych uniwersalnych właściwości materii, kojarzoną z koncepcją odbicia. Przy wszystkich interpretacjach pojęcia informacji zakłada ono istnienie dwóch obiektów: źródła informacji i konsumenta (odbiorcy) informacji. Przekazywanie informacji między sobą odbywa się za pomocą sygnałów, co, ogólnie rzecz biorąc, odbywa się za pomocą sygnałów. może nie mieć żadnego fizycznego związku z jego znaczeniem: niniejszy przekaz jest ustalany w drodze umowy. Przykładowo, bicie dzwonu veche oznaczało, że trzeba było zebrać się na placu, lecz tym, którzy nie wiedzieli o tym nakazie, nie przekazywał żadnych informacji.


W sytuacji z dzwonkiem veche osoba uczestnicząca w uzgadnianiu znaczenia sygnału wie, że w tej chwili mogą być dwie alternatywy: spotkanie veche się odbędzie lub nie. Lub, w języku teorii informacji, niepewne wydarzenie (veche) ma dwa skutki. Otrzymany sygnał prowadzi do zmniejszenia niepewności: osoba wie już, że dane wydarzenie (wieczór) ma tylko jeden wynik – nastąpi. Jeżeli jednak z góry było wiadomo, że spotkanie odbędzie się o takiej a takiej godzinie, dzwonek nie zapowiadał niczego nowego. Wynika z tego, że im mniej prawdopodobny (tj. bardziej nieoczekiwany) jest komunikat, tym więcej zawiera informacji i odwrotnie, im większe prawdopodobieństwo wyniku przed wystąpieniem zdarzenia, tym mniej informacji zawiera. Mniej więcej to samo rozumowanie przeprowadzono w latach 40. XX wieku. XX wiek do powstania statystycznej, czyli „klasycznej” teorii informacji, która definiuje pojęcie informacji poprzez miarę zmniejszania niepewności wiedzy o wystąpieniu zdarzenia (miarę tę nazwano entropią). Początkami tej nauki byli N. Wiener, K. Shannon i radzieccy naukowcy A. N. Kołmogorow, V. A. Kotelnikow i inni. Byli w stanie wyprowadzić prawa matematyczne do pomiaru ilości informacji, a stąd takie pojęcia, jak pojemność kanału i., pojemność pamięci I. urządzeń itp., co stanowiło potężną zachętę do rozwoju cybernetyki jako nauki i elektronicznej technologii obliczeniowej jako praktycznego zastosowania osiągnięć cybernetyki.


Jeśli chodzi o określenie wartości i przydatności informacji dla odbiorcy, nadal pozostaje wiele nierozwiązanych i niejasnych kwestii. Jeśli wyjdziemy od potrzeb zarządzania gospodarczego, a co za tym idzie cybernetyki ekonomicznej, to informację można zdefiniować jako całość informacji, wiedzy i komunikatów, które pomagają rozwiązać konkretny problem zarządzania (czyli zmniejszyć niepewność jego wyników). Otwierają się wówczas pewne możliwości oceny informacji: im bardziej jest ona użyteczna i cenna, tym szybciej lub mniejszym kosztem prowadzi do rozwiązania problemu. Pojęcie informacji jest bliskie pojęciu danych. Jest jednak między nimi różnica: dane są sygnałami, z których należy jeszcze wydobyć informacje. Przetwarzanie danych to proces doprowadzenia ich do odpowiedniej do tego postaci.


Proces ich przekazywania od źródła do konsumenta i postrzegania jako informacji można uznać za przechodzący przez trzy filtry:

Fizyczne lub statystyczne (czysto ilościowe ograniczenie przepustowości kanału, niezależnie od zawartości danych, tj. z punktu widzenia syntaktyki);

Semantyczny (wybór takich danych, które są zrozumiałe dla odbiorcy, czyli odpowiadają tezaurusowi jego wiedzy);

Pragmatyczny (wybór spośród zrozumiałych informacji tych, które są przydatne do rozwiązania danego problemu).

Widać to wyraźnie na diagramie zaczerpniętym z książki E. G. Yasina o informacji gospodarczej. W związku z tym wyróżnia się trzy aspekty badania problemów językowych - syntaktyczny, semantyczny i pragmatyczny.


Ze względu na treść informacje dzielą się na społeczno-polityczne, społeczno-ekonomiczne (w tym ekonomiczne), naukowo-techniczne itp. Ogólnie rzecz biorąc, istnieje wiele klasyfikacji informacji, opierają się one na różnych podstawach. Z reguły, ze względu na bliskość pojęć, klasyfikacje danych konstruowane są w ten sam sposób. Na przykład informacja jest podzielona na statyczną (stała) i dynamiczną (zmienną), a dane są podzielone na stałe i zmienne. Kolejnym podziałem jest informacja pierwotna, pochodna, wyjściowa (w ten sam sposób klasyfikuje się dane). Trzeci dział to I. kontrolowanie i informowanie. Po czwarte - zbędne, przydatne i fałszywe. Po piąte – kompletne (ciągłe) i selektywne. Ta koncepcja Wienera daje bezpośrednie wskazanie na obiektywność informacji, tj. jego istnienie w przyrodzie jest niezależne od ludzkiej świadomości (percepcji).

Współczesna cybernetyka definiuje informację obiektywną jako obiektywną właściwość obiektów i zjawisk materialnych, która generuje różnorodne stany, które poprzez fundamentalne oddziaływania materii są przekazywane z jednego obiektu (procesu) na drugi i odciśnięte w jego strukturze. System materialny w cybernetyce jest uważany za zbiór obiektów, które same mogą znajdować się w różnych stanach, ale o stanie każdego z nich decydują stany innych obiektów układu.

W naturze wiele stanów systemu reprezentuje informację; same stany reprezentują kod pierwotny, czyli kod źródłowy. Zatem każdy system materialny jest źródłem informacji. Cybernetyka definiuje informację subiektywną (semantyczną) jako znaczenie lub treść komunikatu.

Rola informacji w informatyce

Przedmiotem nauki są dane: sposoby ich tworzenia, przechowywania, przetwarzania i przesyłania. Treść (też: „wypełnienie” (w kontekście), „zawartość witryny”) to termin oznaczający wszelkiego rodzaju informacje (zarówno tekstowe, jak i multimedialne - obrazy, audio, wideo), które składają się na treść (wizualizowaną, dla odwiedzającego, treść ) strony internetowej. Służy do oddzielenia pojęcia informacji tworzącej wewnętrzną strukturę strony/strony (kod) od tego, co ostatecznie zostanie wyświetlone na ekranie.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kursie informatyki, jednak nie da się go zdefiniować za pomocą innych, bardziej „prostych” pojęć.


Można wyróżnić następujące podejścia do ustalania informacji:

Tradycyjne (zwykłe) - stosowane w informatyce: Informacja to informacja, wiedza, komunikaty o stanie rzeczy, które człowiek odbiera ze świata zewnętrznego za pomocą zmysłów (wzrok, słuch, smak, węch, dotyk).

Probabilistyczna - stosowana w teorii informacji: Informacja to informacja o obiektach i zjawiskach otoczenia, ich parametrach, właściwościach i stanie, które zmniejszają stopień niepewności i niepełnej wiedzy na ich temat.


Informacje są przechowywane, przesyłane i przetwarzane w formie symbolicznej (znaku). Te same informacje można przedstawić w różnych formach:

Pismo migowe, składające się z różnych znaków, wśród których wyróżnia się znaki symboliczne w postaci tekstu, cyfr, znaków specjalnych. postacie; graficzny; tabelaryczne itp.;

W formie gestów lub sygnałów;

Ustna forma werbalna (rozmowa).


Informacje prezentowane są przy użyciu języków jako systemów znaków, które zbudowane są w oparciu o określony alfabet i posiadają zasady wykonywania operacji na znakach. Język jest specyficznym systemem znaków służącym do przedstawiania informacji. Istnieć:

Języki naturalne to języki mówione w formie mówionej i pisanej. W niektórych przypadkach język mówiony można zastąpić językiem mimiki i gestów, językiem znaków specjalnych (na przykład znaków drogowych);

Języki formalne to języki specjalne dla różnych dziedzin ludzkiej działalności, które charakteryzują się ściśle ustalonym alfabetem i bardziej rygorystycznymi zasadami gramatyki i składni. Jest to język muzyki (nuty), język matematyki (cyfry, symbole matematyczne), systemy liczbowe, języki programowania itp. Podstawą każdego języka jest alfabet – zbiór symboli/znaków. Całkowita liczba symboli alfabetu nazywana jest zwykle potęgą alfabetu.


Media informacyjne to medium lub ciało fizyczne służące do przesyłania, przechowywania i odtwarzania informacji. (Są to sygnały elektryczne, świetlne, termiczne, dźwiękowe, radiowe, dyski magnetyczne i laserowe, publikacje drukowane, fotografie itp.)

Procesy informacyjne to procesy związane z otrzymywaniem, przechowywaniem, przetwarzaniem i przesyłaniem informacji (tj. czynności wykonywane na informacjach). Te. Są to procesy, podczas których zmienia się treść informacji lub forma jej prezentacji.

Aby zapewnić proces informacyjny, potrzebne jest źródło informacji, kanał komunikacji i konsument informacji. Źródło przekazuje (wysyła) informację, a odbiorca ją odbiera (postrzega). Przesyłana informacja przemieszcza się od źródła do odbiorcy za pomocą sygnału (kodu). Zmiana sygnału umożliwia uzyskanie informacji.

Będąc przedmiotem transformacji i użytkowania, informacja charakteryzuje się następującymi właściwościami:

Składnia to właściwość określająca sposób prezentacji informacji na nośniku (w sygnale). Tym samym informacje te prezentowane są na nośnikach elektronicznych przy użyciu określonej czcionki. Tutaj możesz także wziąć pod uwagę takie parametry prezentacji informacji, jak styl i kolor czcionki, jej rozmiar, odstępy między wierszami itp. O wyborze niezbędnych parametrów jako właściwości składniowych decyduje oczywiście zamierzony sposób transformacji. Na przykład dla osoby słabo widzącej ważny jest rozmiar i kolor czcionki. Jeśli planujesz wprowadzić ten tekst do komputera za pomocą skanera, ważny jest rozmiar papieru;


Semantyka to właściwość określająca znaczenie informacji jako zgodność sygnału ze światem rzeczywistym. Zatem semantyka sygnału „informatyka” kryje się w podanej wcześniej definicji. Semantykę można uznać za pewną, znaną konsumentowi informacji, zgodę na to, co oznacza każdy sygnał (tzw. reguła interpretacji). Na przykład semantykę sygnałów bada początkujący kierowca, studiując zasady ruchu drogowego, ucząc się znaków drogowych (w tym przypadku same znaki są sygnałami). Semantyki słów (sygnałów) uczy się uczeń języka obcego. Można powiedzieć, że celem nauczania informatyki jest studiowanie semantyki różnych sygnałów – istoty kluczowych pojęć tej dyscypliny;


Pragmatyka to właściwość określająca wpływ informacji na zachowania konsumentów. Zatem pragmatyką informacji, jakie otrzymuje czytelnik tego podręcznika, jest co najmniej pomyślne zdanie egzaminu z informatyki. Chciałbym wierzyć, że pragmatyka tej pracy nie będzie się na tym ograniczać, ale posłuży ona dalszemu kształceniu i aktywności zawodowej czytelnika.

Należy zauważyć, że sygnały różniące się składnią mogą mieć tę samą semantykę. Na przykład sygnały „komputer” i „komputer” oznaczają urządzenie elektroniczne służące do przetwarzania informacji. W tym przypadku zwykle mówimy o synonimii sygnału. Z drugiej strony, jeden sygnał (czyli informacja o jednej właściwości syntaktycznej) może mieć dla konsumentów inną pragmatykę i inną semantykę. Zatem znak drogowy zwany „cegłą” i posiadający bardzo specyficzną semantykę („zakaz wjazdu”) oznacza dla kierowcy zakaz wjazdu, ale nie ma żadnego wpływu na pieszego. Jednocześnie sygnał „klucz” może mieć różną semantykę: klucz wiolinowy, klucz sprężynowy, klucz do otwierania zamka, klucz stosowany w informatyce do kodowania sygnału w celu zabezpieczenia go przed nieupoważnionym dostępem (w w tym przypadku mowa o homonimii sygnału). Istnieją sygnały - antonimy, które mają przeciwną semantykę. Na przykład „zimno” i „gorąco”, „szybko” i „wolno” itp.


Przedmiotem badań informatyki są dane: metody ich tworzenia, przechowywania, przetwarzania i przesyłania. A sama informacja zapisana w danych, jej znaczenie, interesuje użytkowników systemów informatycznych, specjalistów z różnych nauk i dziedzin działalności: lekarz interesuje się informacją medyczną, geolog informacją geologiczną, przedsiębiorca interesuje się informacjami handlowymi itp. (W szczególności informatyk jest zainteresowany informacjami na temat pracy z danymi).

Semiotyka - nauka o informacji

Nie można sobie wyobrazić informacji bez jej otrzymania, przetworzenia, przekazania itp., czyli poza ramami wymiany informacji. Wszelkie akty wymiany informacji odbywają się za pomocą symboli lub znaków, za pomocą których jeden system wpływa na drugi. Dlatego główną nauką badającą informację jest semiotyka - nauka o znakach i systemach znaków w przyrodzie i społeczeństwie (teoria znaków). W każdym akcie wymiany informacji można wyróżnić trzech „uczestników”, trzy elementy: znak, przedmiot, który on oznacza, oraz odbiorca (użytkownik) znaku.


W zależności od relacji pomiędzy rozważanymi elementami semiotykę dzieli się na trzy działy: syntaktykę, semantykę i pragmatykę. Syntaktyka bada znaki i relacje między nimi. Jednocześnie abstrahuje od treści znaku i jego praktycznego znaczenia dla odbiorcy. Semantyka bada relację między znakami a przedmiotami, które one oznaczają, abstrahując od odbiorcy znaków i wartości tego ostatniego: dla niego. Oczywiste jest, że badanie wzorców semantycznej reprezentacji obiektów w znakach jest niemożliwe bez uwzględnienia i wykorzystania ogólnych wzorców konstrukcji dowolnych systemów znakowych badanych przez syntaktykę. Pragmatyka zajmuje się badaniem relacji między znakami a ich użytkownikami. W ramach pragmatyki badane są wszystkie czynniki odróżniające jeden akt wymiany informacji od drugiego, wszelkie kwestie praktycznych skutków wykorzystania informacji i jej wartości dla odbiorcy.


W tym przypadku nieuchronnie wpływa to na wiele aspektów relacji znaków ze sobą i z oznaczanymi przez nie przedmiotami. Zatem trzem działam semiotyki odpowiadają trzy poziomy abstrakcji (odwrócenia uwagi) od cech konkretnych aktów wymiany informacji. Badanie informacji w całej jej różnorodności odpowiada poziomowi pragmatycznemu. Odwracając uwagę odbiorcy informacji, wykluczając go z rozważań, przechodzimy do jej badania na poziomie semantycznym. Wraz z abstrakcją od treści znaków analiza informacji zostaje przeniesiona na poziom syntaktyki. To przenikanie się głównych działów semiotyki, związanych z różnymi poziomami abstrakcji, można przedstawić za pomocą diagramu „Trzy działy semiotyki i ich wzajemne powiązania”. Pomiar informacji odbywa się odpowiednio w trzech aspektach: syntaktycznym, semantycznym i pragmatycznym. Zapotrzebowanie na tak różne wymiary informacji, jak zostanie pokazane poniżej, podyktowane jest praktyką projektowania i organizacji pracy systemów informatycznych. Rozważmy typową sytuację produkcyjną.


Pod koniec zmiany planista budowy przygotowuje dane dotyczące harmonogramu produkcji. Dane te trafiają do centrum informacyjno-obliczeniowego (ICC) przedsiębiorstwa, gdzie są przetwarzane i w formie raportów o bieżącym stanie produkcji wydawane menadżerom. Na podstawie otrzymanych danych kierownik warsztatu podejmuje decyzję o zmianie planu produkcji na kolejny okres planistyczny lub o podjęciu innych działań organizacyjnych. Oczywiście dla kierownika sklepu ilość informacji zawartych w podsumowaniu zależy od wielkości efektu ekonomicznego, jaki uzyska z ich wykorzystania w procesie decyzyjnym, od tego, jak przydatne były otrzymane informacje. Dla planisty serwisu o ilości informacji zawartej w tej samej wiadomości decyduje trafność jej zgodności ze stanem faktycznym na obiekcie oraz stopień zaskoczenia raportowanymi faktami. Im bardziej są one nieoczekiwane, tym szybciej należy je zgłosić kierownictwu, tym więcej informacji zawiera ta wiadomość. Dla pracowników ICC ilość znaków i długość komunikatu niosącego informację będzie miała ogromne znaczenie, gdyż to właśnie od niej zależy czas ładowania sprzętu komputerowego i kanałów komunikacyjnych. Jednocześnie praktycznie nie interesuje ich ani użyteczność informacji, ani ilościowy miernik wartości semantycznej informacji.


Naturalnie organizując system zarządzania produkcją i budując modele wyboru decyzji, będziemy wykorzystywać użyteczność informacji jako miarę informatywności komunikatów. Budując system księgowo-raportowy zapewniający zarządzanie danymi o postępie procesu produkcyjnego, jako miarę ilości informacji należy przyjąć nowość otrzymanych informacji. Organizacja procedur mechanicznego przetwarzania informacji wymaga pomiaru objętości komunikatów w postaci liczby przetworzonych znaków. Te trzy zasadniczo różne podejścia do pomiaru informacji nie są sprzeczne ani wzajemnie się wykluczają. Wręcz przeciwnie, mierząc informacje w różnych skalach, pozwalają na pełniejszą i kompleksową ocenę zawartości informacyjnej każdego przekazu oraz efektywniej organizują system zarządzania produkcją. Według trafnego określenia prof. NIE. Kobryńskiego, jeśli chodzi o racjonalną organizację przepływu informacji, ilość, nowość i użyteczność informacji są ze sobą powiązane tak samo, jak ilość, jakość i koszt wytwarzanych produktów.

Informacje w świecie materialnym

Informacja jest jednym z ogólnych pojęć związanych z materią. Informacja istnieje w każdym obiekcie materialnym w postaci różnorodnych jego stanów i jest przenoszona z obiektu na obiekt w procesie ich interakcji. Istnienie informacji jako obiektywnej właściwości materii wynika logicznie ze znanych podstawowych właściwości materii – budowy, ciągłej zmiany (ruchu) i wzajemnego oddziaływania obiektów materialnych.


Struktura materii objawia się wewnętrznym rozczłonkowaniem integralności, naturalnym porządkiem łączenia elementów w całość. Innymi słowy, każdy obiekt materialny, począwszy od subatomowej cząstki Metawszechświata (Wielkiego Wybuchu) jako całości, jest systemem połączonych ze sobą podsystemów. W wyniku ciągłego ruchu, rozumianego szeroko jako ruch w przestrzeni i rozwój w czasie, obiekty materialne zmieniają swój stan. Stany obiektów zmieniają się także podczas interakcji z innymi obiektami. Zbiór stanów systemu materialnego i wszystkich jego podsystemów reprezentuje informację o systemie.


Ściśle mówiąc, ze względu na niepewność, nieskończoność i właściwości struktury, ilość obiektywnej informacji w każdym obiekcie materialnym jest nieskończona. Informacje te nazywane są kompletnymi. Można jednak wyróżnić poziomy strukturalne o skończonych zbiorach stanów. Informacje istniejące na poziomie strukturalnym o skończonej liczbie stanów nazywane są prywatnymi. W przypadku informacji prywatnych koncepcja ilości informacji ma sens.

Z powyższej prezentacji logiczny i prosty jest wybór jednostki miary ilości informacji. Wyobraźmy sobie układ, który może znajdować się tylko w dwóch stanach jednakowo prawdopodobnych. Jednemu z nich przypiszemy kod „1”, a drugiemu „0”. Jest to minimalna ilość informacji, jaką może pomieścić system. Jest to jednostka miary informacji i nazywa się bitem. Istnieją inne, trudniejsze do zdefiniowania metody i jednostki pomiaru ilości informacji.


W zależności od materialnej formy nośnika, informacja dzieli się na dwa główne typy – analogową i dyskretną. Informacje analogowe zmieniają się w sposób ciągły w czasie i pobierają wartości z kontinuum wartości. Informacje dyskretne zmieniają się w niektórych momentach i przyjmują wartości z określonego zestawu wartości. Podstawowym źródłem informacji jest każdy materialny obiekt lub proces. Wszystkie jego możliwe stany składają się na kod źródłowy informacji. Chwilowa wartość stanów jest reprezentowana jako symbol („litera”) tego kodu. Aby informacja mogła zostać przesłana z jednego obiektu do drugiego jako odbiorcy, konieczne jest istnienie jakiegoś pośredniego ośrodka materialnego, który oddziałuje ze źródłem. Takie nośniki w przyrodzie z reguły szybko rozprzestrzeniają się procesy struktury falowej - promieniowanie kosmiczne, gamma i rentgenowskie, fale elektromagnetyczne i dźwiękowe, potencjały (i być może jeszcze nie odkryte fale) pola grawitacyjnego. Kiedy promieniowanie elektromagnetyczne oddziałuje z obiektem w wyniku absorpcji lub odbicia, zmienia się jego widmo, tj. zmieniają się intensywności niektórych długości fal. Harmoniczne drgań dźwięku zmieniają się także podczas interakcji z obiektami. Informacja przekazywana jest również poprzez interakcję mechaniczną, jednak interakcja mechaniczna z reguły prowadzi do dużych zmian w strukturze obiektów (aż do ich zniszczenia), a informacja jest znacznie zniekształcona. Zniekształcenie informacji podczas jej transmisji nazywa się dezinformacją.


Przeniesienie informacji źródłowej na strukturę nośnika nazywa się kodowaniem. W tym przypadku kod źródłowy jest konwertowany na kod nośnika. Nośnik, do którego przesłano kod źródłowy w postaci kodu nośnego, nazywany jest sygnałem. Odbiornik sygnału ma swój własny zestaw możliwych stanów, który nazywany jest kodem odbiornika. Sygnał wchodząc w interakcję z obiektem odbierającym zmienia swój stan. Proces przekształcania kodu sygnału w kod odbiornika nazywany jest dekodowaniem. Transfer informacji ze źródła do odbiornika można uznać za interakcję informacyjną. Interakcja informacyjna zasadniczo różni się od innych interakcji. We wszystkich innych interakcjach obiektów materialnych następuje wymiana materii i (lub) energii. W tym przypadku jeden z obiektów traci materię lub energię, a drugi ją zyskuje. Ta właściwość interakcji nazywa się symetrią. Podczas interakcji informacyjnej odbiorca otrzymuje informację, ale źródło jej nie traci. Interakcja informacyjna jest asymetryczna. Obiektywna informacja sama w sobie nie jest materialna, jest właściwością materii, taką jak struktura, ruch i istnieje na nośnikach materialnych w postaci własnych kodów.

Informacje w dzikiej przyrodzie

Dzika przyroda jest złożona i różnorodna. Źródłem i odbiorcą informacji w nim są żywe organizmy i ich komórki. Organizm ma szereg właściwości odróżniających go od nieożywionych obiektów materialnych.


Podstawowy:

Ciągła wymiana materii, energii i informacji z otoczeniem;

Drażliwość, zdolność organizmu do postrzegania i przetwarzania informacji o zmianach w otoczeniu i środowisku wewnętrznym organizmu;

Pobudliwość, zdolność reagowania na bodźce;

Samoorganizacja objawiająca się zmianami w organizmie w celu przystosowania się do warunków środowiskowych.


Organizm rozumiany jako system ma strukturę hierarchiczną. Struktura ta w stosunku do samego organizmu dzieli się na poziomy wewnętrzne: molekularny, komórkowy, narządowy i wreszcie sam organizm. Jednak organizm oddziałuje również ponad organizmami żywymi, których poziomami są populacja, ekosystem i cała żywa przyroda jako całość (biosfera). Przepływy nie tylko materii i energii, ale także informacji krążą pomiędzy wszystkimi tymi poziomami. Interakcje informacyjne w przyrodzie ożywionej zachodzą w taki sam sposób, jak w przyrodzie nieożywionej. Jednocześnie żywa przyroda w procesie ewolucji stworzyła szeroką gamę źródeł, nośników i odbiorców informacji.


Reakcja na wpływy świata zewnętrznego objawia się we wszystkich organizmach, ponieważ jest spowodowana drażliwością. U organizmów wyższych adaptacja do środowiska zewnętrznego jest działaniem złożonym, skutecznym jedynie przy dostatecznie pełnej i aktualnej informacji o środowisku. Odbiorcami informacji ze środowiska zewnętrznego są ich narządy zmysłów, do których zalicza się wzrok, słuch, węch, smak, dotyk oraz narząd przedsionkowy. W wewnętrznej strukturze organizmów znajdują się liczne receptory wewnętrzne związane z układem nerwowym. Układ nerwowy składa się z neuronów, których procesy (aksony i dendryty) są analogiczne do kanałów przekazywania informacji. Głównymi narządami przechowującymi i przetwarzającymi informacje u kręgowców są rdzeń kręgowy i mózg. Zgodnie z charakterystyką zmysłów, informacje odbierane przez organizm można podzielić na wizualne, słuchowe, smakowe, węchowe i dotykowe.


Gdy sygnał dociera do siatkówki ludzkiego oka, w szczególny sposób pobudza komórki tworzące tę część oka. Impulsy nerwowe z komórek przekazywane są poprzez aksony do mózgu. Mózg zapamiętuje to uczucie w postaci pewnej kombinacji stanów neuronów składowych. (Przykład jest kontynuowany w części „Informacja w społeczeństwie ludzkim”). Gromadząc informacje, mózg tworzy na swojej strukturze połączony model informacyjny otaczającego świata. W przyrodzie żywej ważną cechą organizmu odbierającego informację jest jej dostępność. Ilość informacji, jaką ludzki układ nerwowy jest w stanie przesłać do mózgu podczas czytania tekstu, wynosi około 1 bit na 1/16 s.

Badanie organizmów komplikuje ich złożoność. Abstrakcja struktury jako zbioru matematycznego, akceptowalna dla obiektów nieożywionych, jest mało akceptowalna dla organizmu żywego, gdyż aby stworzyć mniej lub bardziej adekwatny abstrakcyjny model organizmu, należy wziąć pod uwagę wszystkie hierarchiczne poziomach jego struktury. Dlatego trudno jest wprowadzić miarę ilości informacji. Bardzo trudno jest określić powiązania pomiędzy elementami konstrukcji. Jeśli wiadomo, który narząd jest źródłem informacji, to jaki jest sygnał, a jaki odbiornik?


Przed pojawieniem się komputerów biologia, która zajmuje się badaniem organizmów żywych, była wykorzystywana wyłącznie jakościowo, tj. modele opisowe. W modelu jakościowym prawie niemożliwe jest uwzględnienie powiązań informacyjnych pomiędzy elementami konstrukcji. Elektroniczna technologia obliczeniowa umożliwiła zastosowanie nowych metod w badaniach biologicznych, w szczególności metody modelowania maszynowego, która polega na matematycznym opisie znanych zjawisk i procesów zachodzących w organizmie, dodaniu do nich hipotez na temat niektórych nieznanych procesów i obliczeniu możliwych zachowań wzorce organizmu. Uzyskane opcje porównuje się z rzeczywistym zachowaniem organizmu, co pozwala określić prawdziwość lub fałszywość postawionych hipotez. Takie modele mogą również uwzględniać interakcję informacyjną. Procesy informacyjne zapewniające istnienie samego życia są niezwykle złożone. I choć intuicyjnie wiadomo, że właściwość ta jest bezpośrednio związana z tworzeniem, przechowywaniem i przekazywaniem pełnej informacji o budowie organizmu, to abstrakcyjny opis tego zjawiska przez pewien czas wydawał się niemożliwy. Jednak procesy informacyjne zapewniające istnienie tej właściwości zostały częściowo odsłonięte poprzez rozszyfrowanie kodu genetycznego i odczytanie genomów różnych organizmów.

Informacja w społeczeństwie ludzkim

Rozwój materii w procesie ruchu ma na celu skomplikowanie struktury obiektów materialnych. Jedną z najbardziej złożonych struktur jest ludzki mózg. Jak dotąd jest to jedyna znana nam struktura, która ma właściwość, którą sam człowiek nazywa świadomością. Mówiąc o informacji, my, istoty myślące, a priori mamy na myśli, że informacja oprócz swojej obecności w postaci sygnałów, które otrzymujemy, ma również pewne znaczenie. Tworząc w swoim umyśle model otaczającego świata jako połączony zbiór modeli jego obiektów i procesów, człowiek posługuje się pojęciami semantycznymi, a nie informacją. Znaczenie jest istotą każdego zjawiska, która nie pokrywa się sama ze sobą i łączy je z szerszym kontekstem rzeczywistości. Samo słowo bezpośrednio wskazuje, że treść semantyczną informacji mogą formować jedynie myślący odbiorcy informacji. W społeczeństwie ludzkim decydujące znaczenie ma nie sama informacja, ale jej treść semantyczna.


Przykład (ciąg dalszy). Doświadczywszy takiego wrażenia, osoba przypisuje przedmiotowi pojęcie „pomidor”, a jego stanowi pojęcie „kolor czerwony”. Ponadto jego świadomość naprawia połączenie: „pomidor” - „czerwony”. Takie jest znaczenie odbieranego sygnału. (Przykład kontynuowany poniżej w tej sekcji). Zdolność mózgu do tworzenia znaczących koncepcji i połączeń między nimi jest podstawą świadomości. Świadomość można uznać za samodoskonalący się model semantyczny otaczającego świata. Znaczenie nie jest informacją. Informacja istnieje wyłącznie na materialnym nośniku. Ludzka świadomość jest uważana za niematerialną. Znaczenie istnieje w ludzkim umyśle w postaci słów, obrazów i wrażeń. Osoba może wymawiać słowa nie tylko na głos, ale także „do siebie”. Potrafi także „we własnym umyśle” tworzyć (lub zapamiętywać) obrazy i doznania. Może jednak uzyskać informacje odpowiadające temu znaczeniu, mówiąc lub pisząc słowa.

Przykład (ciąg dalszy). Jeśli słowa „pomidor” i „czerwony” są znaczeniem tych pojęć, to gdzie jest informacja? Informacja zawarta jest w mózgu w postaci pewnych stanów jego neuronów. Jest on również zawarty w drukowanym tekście składającym się z tych słów, a przy kodowaniu liter za pomocą trzybitowego kodu binarnego jego ilość wynosi 120 bitów. Jeśli wypowiesz te słowa na głos, informacji będzie znacznie więcej, ale znaczenie pozostanie takie samo. Obraz wizualny niesie ze sobą największą ilość informacji. Znajduje to odzwierciedlenie nawet w folklorze – „lepiej raz zobaczyć, niż usłyszeć sto razy”. Odtworzona w ten sposób informacja nazywana jest informacją semantyczną, gdyż koduje ona znaczenie jakiejś informacji pierwotnej (semantyka). Usłyszawszy (lub widząc) zdanie wypowiedziane (lub napisane) w języku, którego dana osoba nie zna, otrzymuje informacje, ale nie może określić ich znaczenia. Dlatego też, aby przekazać treść semantyczną informacji, niezbędne są pewne ustalenia pomiędzy źródłem a odbiorcą co do treści semantycznej sygnałów, tj. słowa Takie porozumienia można osiągnąć poprzez komunikację. Komunikacja jest jednym z najważniejszych warunków istnienia społeczeństwa ludzkiego.

We współczesnym świecie informacja jest jednym z najważniejszych zasobów i jednocześnie jedną z sił napędowych rozwoju społeczeństwa ludzkiego. Procesy informacyjne zachodzące w świecie materialnym, przyrodzie żywej i społeczeństwie ludzkim są badane (lub przynajmniej brane pod uwagę) przez wszystkie dyscypliny naukowe, od filozofii po marketing. Rosnąca złożoność problemów badań naukowych doprowadziła do konieczności przyciągania do ich rozwiązywania dużych zespołów naukowców z różnych specjalności. Dlatego prawie wszystkie omówione poniżej teorie mają charakter interdyscyplinarny. Historycznie rzecz biorąc, badaniem samej informacji zajmowały się dwie złożone gałęzie nauki – cybernetyka i informatyka.


Współczesna cybernetyka to multidyscyplinarna dziedzina nauki zajmująca się badaniem bardzo złożonych systemów, takich jak:

Społeczeństwo ludzkie (cybernetyka społeczna);

Ekonomia (cybernetyka ekonomiczna);

Organizm żywy (cybernetyka biologiczna);

Ludzki mózg i jego funkcja to świadomość (sztuczna inteligencja).


Informatyka, ukształtowana jako nauka w połowie ubiegłego wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznych. Obie te branże wykorzystują kilka podstawowych teorii naukowych. Należą do nich teoria informacji i jej działy – teoria kodowania, teoria algorytmów i teoria automatów. Badania nad semantyczną treścią informacji opierają się na zestawie teorii naukowych pod ogólną nazwą semiotyka. Teoria informacji jest złożoną teorią, głównie matematyczną, obejmującą opis i ocenę metod wyszukiwania, przesyłania, przechowywania i klasyfikowania informacji. Rozważa media informacyjne jako elementy zbioru abstrakcyjnego (matematycznego), a interakcje pomiędzy mediami jako sposób uporządkowania elementów tego zbioru. Takie podejście umożliwia formalny opis kodu informacyjnego, czyli zdefiniowanie kodu abstrakcyjnego i badanie go metodami matematycznymi. Do badań tych wykorzystuje metody teorii prawdopodobieństwa, statystyki matematycznej, algebry liniowej, teorii gier i innych teorii matematycznych.


Podstawy tej teorii położył amerykański naukowiec E. Hartley w 1928 roku, który określił miarę ilości informacji dla niektórych problemów komunikacyjnych. Później teorię znacznie rozwinął amerykański naukowiec K. Shannon, rosyjscy naukowcy A.N. Kołmogorowa, V.M. Głuszkowa i innych. Współczesna teoria informacji obejmuje takie sekcje, jak teoria kodowania, teoria algorytmów, teoria automatów cyfrowych (patrz niżej) i kilka innych. Istnieją także alternatywne teorie informacji, jak na przykład „Jakościowa teoria informacji” zaproponowana przez Polaków naukowiec M. Mazur Pojęcie algorytmu zna każdy człowiek, nawet o tym nie wiedząc. Oto przykład nieformalnego algorytmu: „Pomidory pokroić w koła lub plasterki. Umieść w nich posiekaną cebulę, zalej olejem roślinnym, następnie posyp drobno posiekaną papryką i wymieszaj. Przed jedzeniem posypać solą, przełożyć do salaterki i udekorować natką pietruszki. (Sałatka pomidorowa).


Pierwsze zasady rozwiązywania problemów arytmetycznych w historii ludzkości zostały opracowane przez jednego ze słynnych naukowców starożytności, Al-Khorezmi, w IX wieku naszej ery. Na jego cześć sformalizowane zasady osiągania dowolnego celu nazywane są algorytmami. Przedmiotem teorii algorytmów jest znalezienie metod konstruowania i oceny skutecznych (w tym uniwersalnych) algorytmów obliczeniowych i sterujących przetwarzaniem informacji. Do uzasadnienia takich metod teoria algorytmów wykorzystuje aparat matematyczny teorii informacji. Nowoczesna koncepcja naukowa algorytmów jako metod przetwarzania informacji została wprowadzona w pracach E. Posta i A. Turinga w latach 20. XX wieku (Turing). Maszyna). Rosyjscy naukowcy A. Markov (Algorytm normalny Markowa) i A. Kołmogorow wnieśli ogromny wkład w rozwój teorii algorytmów. Teoria automatów to gałąź cybernetyki teoretycznej, która bada modele matematyczne faktycznie istniejących lub zasadniczo możliwych urządzeń przetwarzających dyskretne informacje. w dyskretnych momentach czasu.


Pojęcie automatu zrodziło się w teorii algorytmów. Jeśli istnieją uniwersalne algorytmy rozwiązywania problemów obliczeniowych, to muszą istnieć również urządzenia (choć abstrakcyjne) do realizacji takich algorytmów. W rzeczywistości abstrakcyjna maszyna Turinga, rozpatrywana w teorii algorytmów, jest jednocześnie nieformalnie zdefiniowanym automatem. Teoretyczne uzasadnienie konstrukcji takich urządzeń jest przedmiotem teorii automatów. Teoria automatów wykorzystuje aparat teorii matematycznych - algebrę, logikę matematyczną, analizę kombinatoryczną, teorię grafów, teorię prawdopodobieństwa itp. Teoria automatów wraz z teorią algorytmów. , jest główną podstawą teoretyczną tworzenia komputerów elektronicznych i zautomatyzowanych systemów sterowania. Semiotyka to zespół teorii naukowych badających właściwości systemów znakowych. Największe wyniki osiągnięto w dziale semiotyka – semantyka. Przedmiotem badań semantyki jest treść semantyczna informacji.


Za system znaków uważa się system obiektów konkretnych lub abstrakcyjnych (znaków, słów), z których każdy ma w określony sposób określone znaczenie. W teorii udowodniono, że mogą istnieć dwa takie porównania. Pierwszy rodzaj korespondencji bezpośrednio określa przedmiot materialny, który oznacza to słowo i nazywany jest denotacją (lub w niektórych pracach nominacją). Drugi rodzaj korespondencji określa znaczenie znaku (słowa) i nazywa się pojęciem. Jednocześnie badane są takie właściwości porównań, jak „znaczenie”, „prawda”, „definiowalność”, „podążanie”, „interpretacja” itp. Do badań wykorzystuje się aparat logiki matematycznej i lingwistyki matematycznej semantyki, zarysowanej w XIX w. przez G. V. Leibniza i F de Saussure’a, sformułowanej i rozwiniętej przez C. Pierce’a (1839-1914), C. Morrisa (ur. 1901), R. Carnapa (1891-1970) itd. Głównym osiągnięciem teorii jest stworzenie aparatu analizy semantycznej, który pozwala przedstawić znaczenie tekstu w języku naturalnym w formie zapisu w jakimś sformalizowanym języku semantycznym (semantycznym). Analiza semantyczna jest podstawą tworzenia urządzeń (programy) służące do tłumaczenia maszynowego z jednego języka naturalnego na inny.

Informacje są przechowywane poprzez przeniesienie ich na jakiś nośnik fizyczny. Informacje semantyczne zapisane na materialnym nośniku danych nazywane są dokumentem. Ludzkość nauczyła się przechowywać informacje bardzo dawno temu. Najstarsze formy przechowywania informacji wykorzystywały układ przedmiotów - muszle i kamienie na piasku, węzły na linie. Znaczącym rozwinięciem tych metod było pismo – graficzne przedstawienie symboli na kamieniu, glinie, papirusie i papierze. Duże znaczenie w rozwoju tego kierunku miał wynalazek druku. W swojej historii ludzkość zgromadziła ogromną ilość informacji w bibliotekach, archiwach, czasopismach i innych dokumentach pisanych.


Obecnie szczególnego znaczenia nabiera przechowywanie informacji w postaci ciągów znaków binarnych. Aby wdrożyć te metody, stosuje się różne urządzenia pamięci masowej. Stanowią centralne ogniwo systemów przechowywania informacji. Oprócz nich systemy te wykorzystują środki wyszukiwania informacji (wyszukiwarka), środki pozyskiwania informacji (systemy informacyjne i referencyjne) oraz środki wyświetlania informacji (urządzenie wyjściowe). Tworzone zgodnie z przeznaczeniem informacji, takie systemy informacyjne tworzą bazy danych, banki danych i bazę wiedzy.

Transfer informacji semantycznej to proces jej przestrzennego przekazania od źródła do odbiorcy (adresata). Człowiek nauczył się przekazywać i odbierać informacje jeszcze wcześniej, niż je przechowywać. Mowa jest sposobem przekazu, który stosowali nasi odlegli przodkowie w bezpośrednim kontakcie (rozmowie) – i my z niego korzystamy do dziś. Aby móc przesyłać informacje na duże odległości, konieczne jest zastosowanie znacznie bardziej złożonych procesów informacyjnych. Aby taki proces mógł zostać zrealizowany, informacja musi zostać w jakiś sposób sformatowana (przedstawiona). Do przedstawienia informacji wykorzystuje się różne systemy znaków – zestawy ustalonych symboli semantycznych: przedmioty, obrazy, pisane lub drukowane słowa języka naturalnego. Informacje semantyczne o dowolnym przedmiocie, zjawisku lub procesie prezentowane za ich pomocą nazywane są komunikatem.


Oczywiście, aby przesłać wiadomość na odległość, informacja musi zostać przeniesiona na jakiś mobilny nośnik. Przewoźnicy mogą przemieszczać się w przestrzeni kosmicznej za pomocą pojazdów, tak jak ma to miejsce w przypadku listów wysyłanych pocztą. Metoda ta zapewnia całkowitą niezawodność przekazu informacji, gdyż adresat otrzymuje oryginalną wiadomość, lecz wymaga znacznego czasu na przesłanie. Od połowy XIX w. upowszechniły się sposoby przekazywania informacji wykorzystujące naturalnie rozchodzący się nośnik informacji – wibracje elektromagnetyczne (drgania elektryczne, fale radiowe, światło). Wdrożenie tych metod wymaga:

Wstępne przeniesienie informacji zawartej w przekazie na nośnik – kodowanie;

Zapewnienie przesłania otrzymanego w ten sposób sygnału do odbiorcy specjalnym kanałem komunikacyjnym;

Odwrotna konwersja kodu sygnałowego na kod komunikatu – dekodowanie.

Zastosowanie mediów elektromagnetycznych sprawia, że ​​dotarcie komunikatu do adresata jest niemal natychmiastowe, wymaga jednak dodatkowych działań zapewniających jakość (rzetelność i dokładność) przesyłanej informacji, gdyż rzeczywiste kanały komunikacji podlegają naturalnym i sztucznym zakłóceniom. Urządzenia realizujące proces przesyłania danych z systemów komunikacyjnych. W zależności od sposobu prezentacji informacji systemy łączności można podzielić na systemy znakowe (telegraf, telefaks), dźwiękowe (telefon), wideo i kombinowane (telewizja). Najbardziej rozwiniętym systemem komunikacji w naszych czasach jest Internet.

Przetwarzanie danych

Ponieważ informacja nie jest materialna, jej przetwarzanie wiąże się z różnymi transformacjami. Procesy przetwarzania obejmują każdy transfer informacji z nośnika na inny nośnik. Informacje przeznaczone do przetwarzania nazywane są danymi. Głównym rodzajem przetwarzania pierwotnych informacji odbieranych przez różne urządzenia jest przekształcanie ich do postaci zapewniającej ich odbiór przez zmysły człowieka. Tym samym fotografie przestrzeni uzyskane w promieniach rentgenowskich przekształcane są w zwykłe kolorowe fotografie za pomocą specjalnych konwerterów widma i materiałów fotograficznych. Noktowizory przetwarzają obraz uzyskany w promieniach podczerwonych (termicznych) na obraz w zakresie widzialnym. W przypadku niektórych zadań komunikacyjnych i sterujących konieczna jest konwersja informacji analogowej. W tym celu stosuje się przetworniki sygnału analogowo-cyfrowego i cyfrowo-analogowego.


Najważniejszym rodzajem przetwarzania informacji semantycznej jest określenie znaczenia (treści) zawartej w danym komunikacie. W przeciwieństwie do pierwotnej informacji semantycznej nie ma ona cech statystycznych, to znaczy miary ilościowej - albo ma znaczenie, albo go nie ma. A ile to jest, jeśli w ogóle, nie da się ustalić. Znaczenie zawarte w przekazie jest opisane sztucznym językiem, który odzwierciedla powiązania semantyczne pomiędzy słowami tekstu źródłowego. Słownik takiego języka, zwany tezaurusem, znajduje się w odbiorniku wiadomości. Znaczenie słów i wyrażeń w przekazie określa się poprzez przypisanie ich do określonych grup słów lub wyrażeń, których znaczenie zostało już ustalone. Tezaurus pozwala zatem ustalić znaczenie przekazu, a jednocześnie jest uzupełniany o nowe pojęcia semantyczne. Opisany rodzaj przetwarzania informacji jest stosowany w systemach wyszukiwania informacji i systemach tłumaczenia maszynowego.


Jednym z powszechnych rodzajów przetwarzania informacji jest rozwiązywanie problemów obliczeniowych i problemów automatycznego sterowania za pomocą komputerów. Przetwarzanie informacji zawsze odbywa się w jakimś celu. Aby to osiągnąć, musi być znana kolejność działań na informacjach prowadzących do danego celu. Ta procedura nazywa się algorytmem. Oprócz samego algorytmu potrzebne jest również urządzenie, które ten algorytm implementuje. W teoriach naukowych takie urządzenie nazywa się automatem. Należy zauważyć, że najważniejszą cechą informacji jest to, że na skutek asymetrii interakcji informacji, podczas przetwarzania informacji pojawiają się nowe informacje, ale pierwotna informacja nie zostaje tracona.

Informacje analogowe i cyfrowe

Dźwięk to drgania fal w dowolnym ośrodku, na przykład w powietrzu. Kiedy ktoś mówi, wibracje więzadeł gardła przekształcają się w wibracje falowe powietrza. Jeśli rozważymy dźwięk nie jako falę, ale jako wibracje w jednym punkcie, wówczas wibracje te można przedstawić jako zmieniające się w czasie ciśnienie powietrza. Za pomocą mikrofonu można wykryć zmiany ciśnienia i przekształcić je w napięcie elektryczne. Ciśnienie powietrza jest przekształcane na wahania napięcia elektrycznego.


Taka transformacja może zachodzić według różnych praw, najczęściej transformacja następuje według prawa liniowego. Na przykład tak:

U(t)=K(P(t)-P_0),

gdzie U(t) to napięcie elektryczne, P(t) to ciśnienie powietrza, P_0 to średnie ciśnienie powietrza, a K to współczynnik konwersji.

Zarówno napięcie elektryczne, jak i ciśnienie powietrza są funkcjami ciągłymi w czasie. Funkcje U(t) i P(t) są informacją o drganiach więzadeł gardła. Funkcje te są ciągłe i taką informację nazywa się analogową. Muzyka jest szczególnym przypadkiem dźwięku i można ją również przedstawić jako pewnego rodzaju funkcję czasu. Będzie to analogowa reprezentacja muzyki. Ale muzykę zapisuje się także w formie notatek. Każda nuta ma czas trwania stanowiący wielokrotność z góry określonego czasu trwania i wysokość dźwięku (do, re, mi, fa, salt itp.). Jeśli dane te zostaną przeliczone na liczby, otrzymamy cyfrową reprezentację muzyki.


Mowa ludzka jest również szczególnym przypadkiem dźwięku. Można go również przedstawić w formie analogowej. Ale tak jak muzykę można podzielić na nuty, tak mowę można rozłożyć na litery. Jeśli każdej literze zostanie przypisany własny zestaw liczb, otrzymamy cyfrową reprezentację mowy. Różnica między informacją analogową i cyfrową polega na tym, że informacja analogowa jest ciągła, podczas gdy informacja cyfrowa jest dyskretna , w zależności od rodzaju transformacji, nazywa się inaczej: po prostu „konwersją”, np. konwersją cyfrowo-analogową lub konwersją analogowo-cyfrową; złożone transformacje nazywane są „kodowaniem”, na przykład kodowaniem delta, kodowaniem entropijnym; Konwersja między charakterystykami, takimi jak amplituda, częstotliwość lub faza, nazywana jest „modulacją”, na przykład modulacja amplitudy i częstotliwości lub modulacja szerokości impulsu.

Zazwyczaj konwersja analogowa jest dość prosta i można ją łatwo przeprowadzić za pomocą różnych urządzeń wymyślonych przez człowieka. Magnetofon przekształca namagnesowanie kliszy na dźwięk, dyktafon przetwarza dźwięk na namagnesowanie kliszy, kamera wideo przekształca światło w namagnesowanie kliszy, oscyloskop przetwarza napięcie lub prąd elektryczny na obraz itp. Konwersja informacji analogowej na cyfrową jest znacznie trudniejsza. Maszyna nie może dokonać pewnych przekształceń lub udaje jej się to z wielkim trudem. Na przykład konwersja mowy na tekst lub konwersja nagrania koncertu na nuty, a nawet z natury cyfrowe przedstawienie: tekst na papierze jest bardzo trudny do przekształcenia przez maszynę w ten sam tekst w pamięci komputera.

Po co więc stosować cyfrową reprezentację informacji, skoro jest ona tak złożona? Główną przewagą informacji cyfrowych nad informacjami analogowymi jest odporność na zakłócenia. Oznacza to, że w procesie kopiowania informacji informacje cyfrowe są kopiowane w niezmienionej postaci, można je kopiować niemal nieskończoną liczbę razy, podczas gdy informacje analogowe stają się zaszumione podczas procesu kopiowania, a ich jakość ulega pogorszeniu. Zwykle informacje analogowe można skopiować nie więcej niż trzy razy. Jeśli masz magnetofon z dwiema kasetami, możesz przeprowadzić następujący eksperyment: spróbuj kilkakrotnie przepisać ten sam utwór z kasety na kasetę już po kilku takich ponownych nagraniach zauważysz, jak bardzo jakość nagrania uległa pogorszeniu. Informacje na kasecie zapisywane są w formie analogowej. Możesz przepisywać muzykę w formacie mp3 tyle razy, ile chcesz, a jakość muzyki nie ulega pogorszeniu. Informacje zawarte w pliku mp3 są przechowywane cyfrowo.

Ilość informacji

Osoba lub inny odbiorca informacji, otrzymawszy informację, rozwiewa pewną niepewność. Weźmy na przykład to samo drzewo. Kiedy zobaczyliśmy drzewo, rozwialiśmy wiele wątpliwości. Dowiadywaliśmy się o wysokości drzewa, jego gatunku, gęstości listowia, kolorze liści, a jeśli było to drzewo owocowe, to widzieliśmy na nim owoce, ich dojrzałość itp. Zanim spojrzeliśmy na drzewo, nie wiedzieliśmy tego wszystkiego, po spojrzeniu na drzewo rozwieliśmy niepewność – otrzymaliśmy informację.


Jeśli wyjdziemy na łąkę i przyjrzymy się jej, otrzymamy inny rodzaj informacji, jak duża jest łąka, jak wysoka jest trawa i jakiego koloru jest trawa. Jeśli biolog pojedzie na tę samą łąkę, to będzie mógł między innymi dowiedzieć się: jakie odmiany trawy na łące rosną, jaki to rodzaj łąki, zobaczy, jakie kwiaty zakwitły, jakie zaraz zakwitnie, czy łąka nadaje się do wypasu krów itp. Oznacza to, że otrzyma więcej informacji niż my, ponieważ miał więcej pytań, zanim spojrzał na łąkę, biolog rozwieje więcej wątpliwości.

Im więcej niepewności rozwiewało się w procesie pozyskiwania informacji, tym więcej informacji otrzymywaliśmy. Jest to jednak subiektywna miara ilości informacji, a my chcielibyśmy mieć miarę obiektywną. Istnieje wzór na obliczenie ilości informacji. Mamy pewną niepewność i mamy N przypadków rozwiązania niepewności, a każdy przypadek ma pewne prawdopodobieństwo rozwiązania, wówczas ilość otrzymanych informacji można obliczyć za pomocą następującego wzoru, który zasugerował nam Shannon:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), gdzie

I – ilość informacji;

N – liczba wyników;

p_1, p_2, ..., p_N to prawdopodobieństwa wyniku.

Ilość informacji mierzy się w bitach – skrót od angielskiego słowa BInary digiT, co oznacza cyfrę binarną.

Dla zdarzeń równie prawdopodobnych wzór można uprościć:

I = \log_(2)N, gdzie

I – ilość informacji;

N – liczba wyników.

Weźmy na przykład monetę i rzućmy ją na stół. Wyląduje orłem lub reszką. Mamy 2 równie prawdopodobne zdarzenia. Po rzucie monetą otrzymaliśmy \log_(2)2=1 bit informacji.

Spróbujmy dowiedzieć się, ile informacji uzyskamy po rzucie kostką. Sześcian ma sześć boków – sześć równie prawdopodobnych zdarzeń. Otrzymujemy: \log_(2)6 \około 2,6. Po rzuceniu kostki na stół otrzymaliśmy około 2,6 bitu informacji.


Szansa, że ​​wychodząc z domu zobaczymy marsjańskiego dinozaura, wynosi jeden do dziesięciu miliardów. Ile informacji na temat marsjańskiego dinozaura dowiemy się po wyjściu z domu?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \około 3,4 \cdot 10^(-9) bitów.

Załóżmy, że rzuciliśmy 8 monetami. Mamy 2^8 opcji upuszczania monet. Oznacza to, że po rzucie monetą otrzymamy \log_2(2^8)=8 bitów informacji.

Kiedy zadajemy pytanie i z równym prawdopodobieństwem otrzymamy odpowiedź „tak” lub „nie”, to po udzieleniu odpowiedzi na pytanie otrzymujemy jedną informację.


Zadziwiające, że jeśli zastosujemy wzór Shannona do informacji analogowych, otrzymamy nieskończoną ilość informacji. Na przykład napięcie w punkcie obwodu elektrycznego może przyjąć równie prawdopodobną wartość od zera do jednego wolta. Liczba wyników, które mamy, jest równa nieskończoności i podstawiając tę ​​wartość do wzoru na zdarzenia równie prawdopodobne, otrzymujemy nieskończoność – nieskończoną ilość informacji.

Teraz pokażę ci, jak zakodować „Wojnę i pokój”, używając tylko jednego znaku na dowolnym metalowym pręcie. Zakodujmy wszystkie litery i znaki występujące w „Wojnie i pokoju” za pomocą liczb dwucyfrowych – to powinno nam wystarczyć. Przykładowo literze „A” nadamy kod „00”, literze „B” kodowi „01” i tak dalej, zakodujemy znaki interpunkcyjne, litery i cyfry łacińskie. Przekodujmy „Wojnę i pokój” za pomocą tego kodu i otrzymamy długi numer, na przykład 70123856383901874..., dodajmy przed tą liczbą przecinek i zero (0,70123856383901874...). Wynikiem jest liczba od zera do jeden. Na metalowym pręcie zaznaczmy tak, aby stosunek lewej strony pręta do długości tego pręta był dokładnie równy naszej liczbie. Jeśli więc nagle zapragniemy przeczytać „Wojnę i pokój”, po prostu odmierzamy lewą stronę pręta do kreski i długość całego pręta, dzielimy liczbę przez drugą, otrzymujemy liczbę i kodujemy ją z powrotem na litery ( „00” do „A”, „01” do „B” itp.).

W rzeczywistości nie będziemy w stanie tego zrobić, ponieważ nie będziemy w stanie określić długości z nieskończoną dokładnością. Pewne problemy inżynieryjne uniemożliwiają nam zwiększenie dokładności pomiarów, a fizyka kwantowa pokazuje nam, że po pewnej granicy prawa kwantowe będą już nam przeszkadzać. Intuicyjnie rozumiemy, że im niższa dokładność pomiaru, tym mniej informacji otrzymujemy, a im większa dokładność pomiaru, tym więcej informacji otrzymujemy. Wzór Shannona nie nadaje się do pomiaru ilości informacji analogowej, ale istnieją do tego inne metody, które są omówione w teorii informacji. W technologii komputerowej bit odpowiada stanowi fizycznemu nośnika informacji: namagnesowany – nie namagnesowany, jest dziura – nie ma dziury, naładowany – nie naładowany, odbija światło – nie odbija światła, wysoki potencjał elektryczny – niski potencjał elektryczny potencjał. W tym przypadku jeden stan jest zwykle oznaczany liczbą 0, a drugi liczbą 1. Za pomocą ciągu bitów można zakodować dowolną informację: tekst, obraz, dźwięk itp.


Oprócz bitu często używana jest wartość zwana bajtem; zwykle wynosi ona 8 bitów. A jeśli bit pozwala wybrać jedną równie prawdopodobną opcję z dwóch możliwych, to bajt to 1 z 256 (2^8). Aby zmierzyć ilość informacji, często używa się również większych jednostek:

1 KB (jeden kilobajt) 210 bajtów = 1024 bajty

1 MB (jeden megabajt) 210 KB = 1024 KB

1 GB (jeden gigabajt) 210 MB = 1024 MB

W rzeczywistości przedrostki SI kilo-, mega-, giga- powinny być używane odpowiednio dla współczynników 10^3, 10^6 i 10^9, ale historycznie rzecz biorąc, istniała praktyka używania czynników o potędze dwójki.


Bit Shannona i bit używany w technologii komputerowej są takie same, jeśli prawdopodobieństwa pojawienia się zera lub jedynki w bicie komputerowym są równe. Jeśli prawdopodobieństwa nie są równe, wówczas ilość informacji według Shannona staje się mniejsza, co widzieliśmy na przykładzie marsjańskiego dinozaura. Komputerowa ilość informacji stanowi górną ocenę ilości informacji. Pamięć ulotna po zasileniu jest zwykle inicjowana jakąś wartością, na przykład samymi jedynkami lub wszystkimi zerami. Oczywiste jest, że po włączeniu zasilania pamięci nie ma tam żadnych informacji, ponieważ wartości w komórkach pamięci są ściśle określone, nie ma niepewności. Pamięć może przechowywać pewną ilość informacji, ale po włączeniu zasilania nie ma w niej żadnej informacji.

Dezinformacja to celowo nieprawdziwa informacja przekazywana wrogowi lub partnerowi biznesowemu w celu skuteczniejszego działania bojowego, współpracy, sprawdzenia wycieku informacji i kierunku jej wycieku, identyfikacji potencjalnych klientów czarnego rynku. Dezinformacja (także dezinformowana) jest procesem manipulacji samą informację, np.: wprowadzenie kogoś w błąd poprzez podanie informacji niekompletnych lub pełnych, ale już niepotrzebnych, zniekształcenie kontekstu, zniekształcenie części informacji.


Cel takiego oddziaływania jest zawsze ten sam – przeciwnik musi działać tak, jak tego potrzebuje manipulator. Działanie celu, przeciwko któremu skierowana jest dezinformacja, może polegać na podjęciu decyzji potrzebnej manipulatorowi lub na odmowie podjęcia decyzji niekorzystnej dla manipulatora. Ale w każdym razie ostatecznym celem jest akcja, którą podejmie przeciwnik.

Dezinformacja jest zatem wytworem działalności człowieka, próbą wywołania fałszywego wrażenia i w związku z tym nakłonienia do pożądanych działań i/lub zaniechania działania.

Rodzaje dezinformacji:

Wprowadzanie w błąd konkretnej osoby lub grupy osób (w tym całego narodu);

Manipulacja (działania jednej osoby lub grupy osób);

Kreowanie opinii publicznej na temat problemu lub przedmiotu.

Wprowadzanie w błąd to nic innego jak zwykłe wprowadzenie w błąd, czyli podanie fałszywych informacji. Manipulacja to metoda oddziaływania mająca na celu bezpośrednio zmianę kierunku działania ludzi. Wyróżnia się następujące poziomy manipulacji:

Wzmocnienie wartości (idei, postaw), które istnieją w umysłach ludzi i są korzystne dla manipulatora;

Częściowa zmiana poglądów na temat określonego zdarzenia lub okoliczności;

Radykalna zmiana postaw życiowych.

Kształtowanie opinii publicznej to kształtowanie w społeczeństwie określonej postawy wobec wybranego problemu.


Źródła i linki

ru.wikipedia.org – wolna encyklopedia Wikipedia

youtube.com – hosting filmów na YouTube

obrazy.yandex.ua - Zdjęcia Yandex

google.com.ua – obrazy Google

ru.wikibooks.org – Wikibooks

inf1.info – Planeta Informatyki

old.russ.ru – Magazyn rosyjski

shkolo.ru – Katalog informacyjny

5byte.ru – witryna poświęcona informatyce

ssti.ru – Technologie informacyjne

klgtu.ru - Informatyka

informatika.sch880.ru - strona internetowa nauczyciela informatyki O.V. Podwincewa

bibliofond.ru - biblioteka elektroniczna Bibliofond

life-prog.ru - programowanie

Informacja to informacja o czymś

Pojęcie i rodzaje informacji, przekazywanie i przetwarzanie, wyszukiwanie i przechowywanie informacji

Informacja to definicja

Informacja jest każdy inteligencja, odbierane i przesyłane, przechowywane przez różne źródła. - to cały zbiór informacji o otaczającym nas świecie, o wszelkiego rodzaju procesach w nim zachodzących, które mogą być postrzegane przez organizmy żywe, maszyny elektroniczne i inne systemy informacyjne.

- Ten istotna informacja o czymś, gdy forma jej przedstawienia jest jednocześnie informacją, czyli pełni funkcję formatującą zgodnie ze swą naturą.

Informacja jest wszystko co da się uzupełnić naszą wiedzą i założeniami.

Informacja jest informacja o czymś, niezależnie od formy jej przedstawienia.

Informacja jest mentalny każdego organizmu psychofizycznego, wytwarzany przez niego przy użyciu jakichkolwiek środków zwanych nośnikiem informacji.

Informacja jest informacje postrzegane przez ludzi i (lub) specjalistów. urządzenia jako odzwierciedlenie faktów ze świata materialnego lub duchowego proces komunikacja.

Informacja jest dane zorganizowane w taki sposób, aby miały sens dla osoby, która je przetwarza.

Informacja jest znaczenie, jakie dana osoba przywiązuje do danych w oparciu o znane konwencje stosowane do ich reprezentacji.

Informacja jest informacja, wyjaśnienie, prezentacja.

Informacja jest wszelkie dane lub informacje, które kogokolwiek interesują.

Informacja jest informacja o obiektach i zjawiskach środowiska, ich parametrach, właściwościach i stanie, które są postrzegane przez systemy informacyjne (organizmy żywe, maszyny sterujące itp.) w procesżycie i praca.

Ten sam przekaz informacyjny (artykuł w gazecie, ogłoszenie, list, telegram, zaświadczenie, opowiadanie, rysunek, audycja radiowa itp.) może zawierać różną ilość informacji dla różnych osób – w zależności od ich wcześniejszej wiedzy, od poziomu zrozumienia tego przekazu i zainteresowanie nim.

W przypadkach, gdy mówią o zautomatyzowaniu praca przekazując informację za pomocą jakichkolwiek urządzeń technicznych, interesuje ich nie treść komunikatu, ale to, ile znaków zawiera ten komunikat.

Informacja jest

W odniesieniu do komputerowego przetwarzania danych przez informację rozumie się pewien ciąg oznaczeń symbolicznych (litery, cyfry, zakodowane obrazy graficzne i dźwięki itp.), niosący ładunek semantyczny i przedstawiony w formie zrozumiałej dla komputera. Każdy nowy znak w takim ciągu znaków zwiększa objętość informacyjną komunikatu.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Przykładowo, na kursie informatyki pojęcie „informacja” jest podstawowe i nie da się go zdefiniować innymi, „prostszymi” pojęciami (podobnie jak na przykład w geometrii nie da się wyrazić treści podstawowe pojęcia „punkt”, „linia”, „płaszczyzna” poprzez prostsze pojęcia).

Treść podstawowych, podstawowych pojęć w każdej nauce należy wyjaśnić przykładami lub zidentyfikować poprzez porównanie ich z treścią innych pojęć. W przypadku pojęcia „informacja” problem jego definicji jest jeszcze bardziej złożony, gdyż jest to pojęcie ogólnonaukowe. Pojęcie to wykorzystywane jest w różnych naukach (informatyka, cybernetyka, biologia, fizyka itp.), a w każdej nauce pojęcie „informacji” kojarzone jest z różnymi systemami pojęć.

Koncepcja informacji

We współczesnej nauce rozważa się dwa rodzaje informacji:

Informacja obiektywna (pierwotna) to właściwość obiektów materialnych i zjawisk (procesów) polegająca na generowaniu różnorodnych stanów, które poprzez interakcje (interakcje fundamentalne) są przekazywane innym obiektom i odciśnięte w ich strukturze.

Informacja subiektywna (semantyczna, semantyczna, wtórna) to semantyczna treść obiektywnej informacji o obiektach i procesach świata materialnego, utworzona przez ludzką świadomość za pomocą obrazów semantycznych (słów, obrazów i wrażeń) i zapisana na jakimś materialnym nośniku.

W potocznym rozumieniu informacja to informacja o otaczającym świecie i zachodzących w nim procesach, postrzegana przez człowieka lub specjalne urządzenie.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Według koncepcji K. Shannona informacja to usuwanie niepewności, tj. Informacje, które powinny w takim czy innym stopniu usunąć niepewność istniejącą dla nabywcy przed ich otrzymaniem i poszerzyć jego zrozumienie przedmiotu o przydatne informacje.

Z punktu widzenia Gregory'ego Betona podstawową jednostką informacji jest „różnica nieobojętna” lub różnica efektywna dla jakiegoś większego systemu postrzegania. Te różnice, które nie są postrzegane, nazywa „potencjalnymi”, a te, które są postrzegane jako „skuteczne”. „Informacja składa się z różnic, które nie są obojętne” (c) „Każde postrzeganie informacji jest z konieczności otrzymaniem informacji o różnicy”. Z punktu widzenia informatyki informacja ma szereg podstawowych właściwości: nowość, trafność, wiarygodność, obiektywność, kompletność, wartość itp. Nauka logiczna zajmuje się przede wszystkim analizą informacji. Słowo „informacja” pochodzi od łacińskiego słowa informatio, które w tłumaczeniu oznacza informację, wyjaśnienie, zapoznanie. Pojęcie informacji rozważali starożytni filozofowie.

Informacja jest

Przed rozpoczęciem rewolucji przemysłowej określenie istoty informacji pozostawało prerogatywą głównie filozofów. Następnie nowa nauka, cybernetyka, zaczęła rozważać zagadnienia teorii informacji.

Czasami, aby zrozumieć istotę pojęcia, warto przeanalizować znaczenie słowa, którym to pojęcie jest oznaczane. Wyjaśnienie wewnętrznej formy słowa i przestudiowanie historii jego użycia może rzucić nieoczekiwane światło na jego znaczenie, przyćmione zwykłym „technologicznym” użyciem tego słowa i współczesnymi konotacjami.

Słowo informacja weszło do języka rosyjskiego w epoce Piotrowej. Po raz pierwszy zostało ono odnotowane w „Przepisach duchowych” z 1721 r. w znaczeniu „idei, koncepcji czegoś”. (W językach europejskich ustalono to wcześniej - około XIV wieku.)

Informacja jest

W oparciu o tę etymologię za informację można uznać każdą znaczącą zmianę kształtu lub, innymi słowy, wszelkie materialnie zapisane ślady powstałe w wyniku interakcji obiektów lub sił i możliwe do zrozumienia. Informacja jest zatem przekształconą formą energii. Nośnikiem informacji jest znak, a sposobem jej istnienia jest interpretacja: określenie znaczenia znaku lub ciągu znaków.

Znaczeniem może być zdarzenie odtworzone ze znaku, który spowodował jego wystąpienie (w przypadku znaków „naturalnych” i mimowolnych, takich jak ślady, dowody itp.) lub przekaz (w przypadku znaków konwencjonalnych, tkwiących w sferze języka). To drugi rodzaj znaków tworzący korpus kultury ludzkiej, który według jednej z definicji stanowi „zestaw informacji niedziedzicznie przekazywanych”.

Informacja jest

Wiadomości mogą zawierać informacje o faktach lub ich interpretację (z języka łacińskiego interpretatio, interpretacja, tłumaczenie).

Żywa istota otrzymuje informacje za pośrednictwem zmysłów, a także poprzez refleksję lub intuicję. Wymiana informacji między podmiotami to komunikacja lub komunikacja (od łac. lecommunications, wiadomość, przekaz, wywodzące się z kolei od łac. communico, tworzyć wspólny, komunikować się, rozmawiać, łączyć).

Z praktycznego punktu widzenia informacja jest zawsze prezentowana w formie komunikatu. Komunikat informacyjny jest powiązany ze źródłem komunikatu, odbiorcą komunikatu i kanałem komunikacji.

Wracając do łacińskiej etymologii słowa informacja, spróbujmy odpowiedzieć na pytanie, jaką dokładnie formę ma tu nadana.

Jest rzeczą oczywistą, że po pierwsze do pewnego znaczenia, które początkowo jest bezkształtne i niewyrażone, istnieje jedynie potencjalnie i musi zostać „zbudowane”, aby zostało dostrzeżone i przekazane.

Po drugie, do ludzkiego umysłu, który jest wyszkolony do myślenia strukturalnego i jasnego. Po trzecie, społeczeństwu, które właśnie dzięki temu, że jego członkowie podzielają te znaczenia i wspólnie z nich korzystają, zyskuje jedność i funkcjonalność.

Informacja jest

Informacja w rozumieniu inteligentnego znaczenia to wiedza, która może być przechowywana, przekazywana i stanowić podstawę do generowania innej wiedzy. Formy utrwalania wiedzy (pamięci historycznej) są różnorodne: od mitów, kronik i piramid po biblioteki, muzea i komputerowe bazy danych.

Informacja – informacja o otaczającym nas świecie, o procesach w nim zachodzących, dostrzegana przez organizmy żywe, menedżerowie maszyny i inne systemy informatyczne.

Słowo „informacja” pochodzi z łaciny. W ciągu długiego życia jego znaczenie przeszło ewolucję, rozszerzając się lub skrajnie zawężając jego granice. Początkowo słowo „informacja” oznaczało: „reprezentację”, „koncepcję”, następnie „informację”, „przekaz komunikatów”.

W ostatnich latach naukowcy uznali, że zwykłe (powszechnie akceptowane) znaczenie słowa „informacja” jest zbyt elastyczne i niejasne, i nadali mu następujące znaczenie: „miara pewności w przekazie”.

Informacja jest

Teoria informacji zrodziła się z potrzeb praktyki. Jego występowanie wiąże się z praca„Matematyczna teoria komunikacji” Claude’a Shannona, opublikowana w 1946 r. Podstawy teorii informacji opierają się na wynikach uzyskanych przez wielu naukowców. W drugiej połowie XX wieku na całym świecie pełno było informacji przesyłanych kablami telefonicznymi i telegraficznymi oraz kanałami radiowymi. Później pojawiły się komputery elektroniczne - procesory informacji. I w tym czasie głównym zadaniem teorii informacji było przede wszystkim zwiększenie wydajności systemów komunikacyjnych. Trudność w projektowaniu i obsłudze środków, systemów i kanałów komunikacji polega na tym, że projektant i inżynier nie wystarczy rozwiązać problem z punktu widzenia fizycznego i energetycznego. Z tych punktów widzenia system może być najbardziej zaawansowany i ekonomiczny. Jednak tworząc systemy transmisji, należy zwrócić uwagę na to, ile informacji przejdzie przez ten system transmisji. Przecież informację można mierzyć ilościowo, policzyć. I w takich obliczeniach postępują najzwyczajniej: abstrahują od znaczenia przekazu, tak jak porzucają konkretność w znanych nam wszystkim operacjach arytmetycznych (przechodząc od dodawania dwóch jabłek i trzech jabłek do dodawania liczb ogólnie: 2 + 3).

Naukowcy stwierdzili, że „całkowicie zignorowali ocenę informacji przez człowieka”. Na przykład kolejnemu ciągowi 100 liter przypisują informację określone znaczenie, nie zwracając uwagi na to, czy informacja ta ma sens i czy ma to z kolei sens w praktycznym zastosowaniu. Podejście ilościowe jest najbardziej rozwiniętą gałęzią teorii informacji. Zgodnie z tą definicją zbiór 100 liter – 100-literowe zdanie z gazety, sztuki Szekspira czy twierdzenia Einsteina – zawiera dokładnie tę samą ilość informacji.

Ta definicja ilości informacji jest niezwykle użyteczna i praktyczna. Odpowiada to dokładnie zadaniu inżyniera łączności, który musi przekazać wszystkie informacje zawarte w przesłanym telegramie, niezależnie od wartości tej informacji dla adresata. Kanał komunikacji jest bezduszny. Dla systemu transmisji ważne jest jedno: przekazać wymaganą ilość informacji w określonym czasie. Jak obliczyć ilość informacji w konkretnej wiadomości?

Informacja jest

Szacowanie ilości informacji opiera się na prawach teorii prawdopodobieństwa, a dokładniej jest ona określana poprzez prawdopodobieństwa wydarzenia. To jest zrozumiałe. Komunikat ma wartość i niesie informację tylko wtedy, gdy dowiadujemy się z niego o wyniku zdarzenia o charakterze losowym, gdy jest ono w pewnym stopniu nieoczekiwane. Przecież wiadomość o tym, co już wiadomo, nie zawiera żadnych informacji. Te. Jeśli na przykład ktoś do Ciebie zadzwoni i powie: „W dzień jest jasno, w nocy ciemno”, to taka wiadomość zaskoczy Cię jedynie absurdem stwierdzenia czegoś oczywistego i znanego wszystkim, a nie wiadomości, które zawiera. Inną rzeczą jest na przykład wynik wyścigu. Kto przyjdzie pierwszy? Wynik jest tutaj trudny do przewidzenia. Im bardziej losowe skutki ma interesujące nas wydarzenie, tym cenniejszy jest przekaz o jego wyniku, tym więcej informacji. Wiadomość o zdarzeniu, które ma tylko dwa równie możliwe wyniki, zawiera pojedynczą jednostkę informacji zwaną bitem. Wybór jednostki informacyjnej nie jest przypadkowy. Jest to związane z najpopularniejszym binarnym sposobem kodowania go podczas transmisji i przetwarzania. Spróbujmy, przynajmniej w najbardziej uproszczonej formie, wyobrazić sobie ogólną zasadę ilościowej oceny informacji, która jest kamieniem węgielnym wszelkiej teorii informacji.

Wiemy już, że ilość informacji zależy od prawdopodobieństwa pewne skutki zdarzenia. Jeśli zdarzenie, jak mówią naukowcy, ma dwa równie prawdopodobne wyniki, oznacza to, że każdy wynik jest równy 1/2. Jest to prawdopodobieństwo wyrzucenia orła lub reszki podczas rzucania monetą. Jeśli zdarzenie ma trzy równie prawdopodobne wyniki, prawdopodobieństwo każdego z nich wynosi 1/3. Należy pamiętać, że suma prawdopodobieństw wszystkich wyników jest zawsze równa jeden: w końcu jeden ze wszystkich możliwych wyników na pewno wystąpi. Zdarzenie, jak sam rozumiesz, może mieć nierówno prawdopodobne wyniki. Zatem w meczu piłkarskim pomiędzy silną i słabą drużyną prawdopodobieństwo wygranej mocnej drużyny jest wysokie – na przykład 4/5. remisów jest znacznie mniej, na przykład 3/20. Prawdopodobieństwo porażki jest bardzo małe.

Okazuje się, że ilość informacji jest miarą zmniejszania niepewności danej sytuacji. Kanałami komunikacyjnymi przesyłana jest różna ilość informacji, a ilość informacji przechodzących przez ten kanał nie może być większa niż jego pojemność. Zależy to od tego, ile informacji przepływa tutaj w jednostce czasu. Jeden z bohaterów powieści Juliusza Verne’a „Tajemnicza wyspa” – relacjonuje dziennikarz Gideon Spillett. zestaw telefoniczny rozdział z Biblii, aby jego konkurenci nie mogli korzystać z usług telefonicznych. W tym przypadku kanał był w pełni załadowany, a ilość informacji była równa zeru, ponieważ znane mu informacje zostały przesłane do abonenta. Oznacza to, że kanał pracował na biegu jałowym, przepuszczając ściśle określoną liczbę impulsów, nie obciążając ich niczym. Tymczasem im więcej informacji niesie każdy z określonej liczby impulsów, tym pełniej wykorzystywana jest pojemność kanału. Trzeba zatem mądrze kodować informacje, znaleźć oszczędny, oszczędny język do przekazywania komunikatów.

Informacje są „przesiewane” w najdokładniejszy sposób. W telegrafie często występujące litery, kombinacje liter, a nawet całe frazy są reprezentowane przez krótszy zestaw zer i jedynek, a te, które występują rzadziej, są reprezentowane przez dłuższy zestaw. W przypadku, gdy długość słowa kodowego jest zmniejszana dla symboli często występujących, a zwiększana dla rzadko występujących, mówi się o skutecznym kodowaniu informacji. Jednak w praktyce często zdarza się, że kod, który powstał w wyniku najdokładniejszego „przesiewania”, kod jest wygodny i ekonomiczny, może zniekształcić przekaz na skutek zakłóceń, co niestety zawsze ma miejsce w kanałach komunikacji: dźwięk zniekształcenia w telefonie, zakłócenia atmosferyczne, zniekształcenie lub przyciemnienie obrazu w telewizji, błędy w transmisji w telegraf. Ta ingerencja, lub jak to nazywają eksperci, szum, atakuje informację. A to skutkuje najbardziej niesamowitymi i oczywiście nieprzyjemnymi niespodziankami.

Dlatego, aby zwiększyć niezawodność transmisji i przetwarzania informacji, konieczne jest wprowadzenie dodatkowych znaków - swego rodzaju zabezpieczenie przed zniekształceniami. One – te dodatkowe symbole – nie niosą ze sobą faktycznej treści przekazu, są zbędne. Z punktu widzenia teorii informacji wszystko, co czyni język kolorowym, elastycznym, bogatym w odcienie, wieloaspektowym, wielowartościowym, to redundancja. Jakże zbędny jest z tego punktu widzenia list Tatiany do Oniegina! Ileż w nim nadmiaru informacji w krótkim i zrozumiałym przekazie „Kocham Cię”! I jak dokładne informacyjnie są ręcznie rysowane znaki, zrozumiałe dla każdego, kto dziś wchodzi do metra, gdzie zamiast słów i zwrotów ogłoszeń widnieją lakoniczne symboliczne znaki wskazujące: „Wejście”, „Wyjście”.

W tym miejscu warto przypomnieć anegdotę opowiedzianą kiedyś przez słynnego amerykańskiego naukowca Benjamina Franklina o twórcy kapeluszy, który zaprosił swoich przyjaciół do omówienia projektu znaku. Miał on narysować kapelusz na znaku i napisać: „John Thompson , kapelusznik, produkuje i sprzedaje kapelusze za gotówkę. Jeden z moich znajomych zauważył, że słowa „za gotówkę” pieniądze„są niepotrzebne – takie przypomnienie byłoby dla nich obraźliwe kupujący. Inny również uznał, że słowo „sprzedaje” jest zbyteczne, skoro nie trzeba dodawać, że kapelusznik sprzedaje kapelusze i nie rozdaje ich za darmo. Trzeci uważał, że słowa „kapelusznik” i „robi kapelusze” są niepotrzebną tautologią i te ostatnie słowa zostały wyrzucone. Czwarty sugerował, że słowo „kapelusznik” również należy wyrzucić – pomalowany kapelusz wyraźnie mówi, kim jest John Thompson. Wreszcie piąty zapewnił, że za kupujący nie miało absolutnie żadnego znaczenia, czy kapelusznik nazywał się John Thompson, czy inaczej, i zaproponowano rezygnację z tego oznaczenia. Ostatecznie na znaku nie pozostało nic poza kapeluszem. Oczywiście, gdyby ludzie używali tylko tego rodzaju kodów, bez zbędnych przekazów, wówczas wszystkie „formularze informacyjne” – książki, raporty, artykuły – byłyby niezwykle krótkie. Ale straciliby na przejrzystości i pięknie.

Informacje można podzielić na typy według różnych kryteriów: wprawdzie: prawda i fałsz;

w drodze percepcji:

Wizualny - postrzegany przez narządy wzroku;

Słuchowy - odbierany przez narządy słuchu;

Dotykowy - postrzegany przez receptory dotykowe;

Węchowy - odbierany przez receptory węchowe;

Smakowe - odbierane przez kubki smakowe.

według formularza prezentacji:

Tekst – przekazywany w postaci symboli mających oznaczać leksemy języka;

Numeryczne - w postaci liczb i znaków wskazujących działania matematyczne;

Grafika – w formie obrazów, obiektów, wykresów;

Dźwięk - ustne lub nagrane przekazywanie leksemów językowych za pomocą środków słuchowych.

według celu:

Masa – zawiera trywialne informacje i operuje zestawem pojęć zrozumiałych dla większości społeczeństwa;

Specjalny - zawiera określony zestaw pojęć; w przypadku użycia przekazywane są informacje, które mogą być niezrozumiałe dla większości społeczeństwa, ale są konieczne i zrozumiałe w wąskiej grupie społecznej, w której te informacje są wykorzystywane;

Sekretne – przekazywane wąskiemu kręgowi osób i zamkniętymi (chronionymi) kanałami;

Osobisty (prywatny) - zbiór informacji o osobie, który określa status społeczny i rodzaje interakcji społecznych w populacji.

według wartości:

Istotne – informacje, które są wartościowe w danym momencie;

Rzetelne – informacja uzyskana bez zniekształceń;

Zrozumiały – informacja wyrażona językiem zrozumiałym dla osób, dla których jest przeznaczona;

Kompletny – informacje wystarczające do podjęcia właściwej decyzji lub zrozumienia;

Przydatne – o przydatności informacji decyduje podmiot, który ją otrzymał, w zależności od zakresu możliwości jej wykorzystania.

Wartość informacji w różnych dziedzinach wiedzy

Obecnie w teorii informacji opracowywanych jest wiele systemów, metod, podejść i pomysłów. Naukowcy uważają jednak, że do współczesnych kierunków teorii informacji dołączą się nowe i pojawią się nowe idee. Jako dowód słuszności swoich założeń przytaczają „żywy”, rozwijający się charakter nauki, wskazując, że teoria informacji zaskakująco szybko i stanowczo zostaje wprowadzona w najróżniejsze obszary ludzkiej wiedzy. Teoria informacji przeniknęła do fizyki, chemii, biologii, medycyny, filozofii, językoznawstwa, pedagogiki, ekonomii, logiki, nauk technicznych i estetyki. Zdaniem samych ekspertów doktryna informacji, która powstała na potrzeby teorii komunikacji i cybernetyki, przekroczyła ich granice. I teraz być może mamy prawo mówić o informacji jako o koncepcji naukowej, która oddaje w ręce badaczy metodę teoretyczno-informacyjną, dzięki której można przeniknąć do wielu nauk o przyrodzie żywej i nieożywionej, o społeczeństwie, które nie tylko pozwalają spojrzeć na wszystkie problemy z nowej perspektywy, ale także zobaczyć to, czego jeszcze nie było. Dlatego też termin „informacja” stał się w naszych czasach powszechny, wchodząc w skład takich pojęć, jak system informacyjny, kultura informacyjna, a nawet etyka informacyjna.

Wiele dyscyplin naukowych wykorzystuje teorię informacji do uwypuklenia nowych kierunków w starych naukach. W ten sposób powstała na przykład geografia informacji, ekonomia informacji i prawo informacyjne. Jednak termin „informacja” nabrał niezwykle dużego znaczenia w związku z rozwojem najnowszej technologii komputerowej, automatyzacją pracy umysłowej, rozwojem nowych środków komunikacji i przetwarzania informacji, a zwłaszcza wraz z pojawieniem się informatyki. Jednym z najważniejszych zadań teorii informacji jest badanie natury i właściwości informacji, tworzenie metod jej przetwarzania, w szczególności przekształcanie szerokiej gamy współczesnych informacji na programy komputerowe, za pomocą których automatyzacja następuje praca umysłowa - swego rodzaju wzmocnienie inteligencji, a co za tym idzie rozwój zasobów intelektualnych społeczeństwa.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kursie informatyki, jednak nie da się go zdefiniować za pomocą innych, bardziej „prostych” pojęć. Pojęcie „informacja” jest stosowane w różnych naukach, a w każdej nauce pojęcie „informacji”. informacja” wiąże się z różnymi systemami pojęć. Informacja w biologii: Biologia bada przyrodę żywą, a pojęcie „informacji” wiąże się z właściwym zachowaniem organizmów żywych. W organizmach żywych informacja jest przekazywana i przechowywana za pomocą obiektów o różnej naturze fizycznej (stan DNA), które są uważane za znaki alfabetów biologicznych. Informacja genetyczna jest dziedziczona i przechowywana we wszystkich komórkach organizmów żywych. Podejście filozoficzne: informacja to interakcja, refleksja, poznanie. Podejście cybernetyczne: informacja to charakterystyka menedżer sygnał przesyłany linią komunikacyjną.

Rola informacji w filozofii

We wczesnych definicjach informacji jako kategorii, pojęcia, właściwości świata materialnego stale dominował tradycjonalizm podmiotowości. Informacja istnieje poza naszą świadomością i może znaleźć odzwierciedlenie w naszej percepcji jedynie w wyniku interakcji: refleksji, odczytania, odbioru w postaci sygnału, bodźca. Informacja nie jest materialna, jak wszystkie właściwości materii. Informacja jest uporządkowana w następujący sposób: materia, przestrzeń, czas, systematyczność, funkcja itp., które są podstawowymi pojęciami sformalizowanego odzwierciedlenia obiektywnej rzeczywistości w jej rozmieszczeniu i zmienności, różnorodności i przejawach. Informacja jest właściwością materii i odzwierciedla jej właściwości (stan lub zdolność do interakcji) oraz ilość (miarę) poprzez interakcję.

Z materialnego punktu widzenia informacja jest porządkiem obiektów w świecie materialnym. Na przykład kolejność liter na kartce papieru według określonych zasad jest informacją pisemną. Kolejność wielobarwnych kropek na kartce papieru według pewnych zasad jest informacją graficzną. Kolejność nut jest informacją muzyczną. Kolejność genów w DNA jest informacją dziedziczną. Kolejność bitów w komputerze to informacja komputerowa itp. i tak dalej. Aby przeprowadzić wymianę informacji, wymagana jest obecność warunków niezbędnych i wystarczających.

Informacja jest

Niezbędne warunki:

Obecność co najmniej dwóch różnych obiektów świata materialnego lub niematerialnego;

Obecność wspólnej właściwości obiektów, która pozwala na ich identyfikację jako nośnika informacji;

Obecność określonej właściwości obiektów, która pozwala im odróżnić obiekty od siebie;

Obecność właściwości przestrzeni, która pozwala określić kolejność obiektów. Na przykład układ informacji pisanych na papierze jest specyficzną właściwością papieru, która umożliwia układanie liter od lewej do prawej i od góry do dołu.

Jest tylko jeden warunek wystarczający: obecność podmiotu zdolnego do rozpoznania informacji. To człowiek i społeczeństwo ludzkie, społeczeństwa zwierząt, robotów itp. Przekaz informacyjny konstruowany jest poprzez wybranie z bazy kopii obiektów i ułożenie tych obiektów w przestrzeni w określonej kolejności. Długość komunikatu informacyjnego jest definiowana jako liczba kopii obiektów bazowych i zawsze wyrażana jest jako liczba całkowita. Należy rozróżnić długość przekazu informacyjnego, mierzoną zawsze liczbą całkowitą, od ilości wiedzy zawartej w przekazie informacyjnym, mierzonej w nieznanej jednostce miary. Z matematycznego punktu widzenia informacja to ciąg liczb całkowitych zapisanych w wektorze. Liczby są numerami obiektów w bazie informacyjnej. Wektor nazywany jest niezmiennikiem informacyjnym, ponieważ nie zależy od fizycznej natury obiektów bazowych. Ten sam przekaz informacyjny może być wyrażony w literach, słowach, zdaniach, plikach, obrazach, notatkach, piosenkach, klipach wideo lub dowolnej kombinacji wszystkich powyższych.

Informacja jest

Rola informacji w fizyce

informacja to informacja o otaczającym ją świecie (obiekcie, procesie, zjawisku, zdarzeniu), która jest przedmiotem transformacji (w tym przechowywania, transmisji itp.) i służy kształtowaniu zachowań, podejmowaniu decyzji, zarządzaniu czy uczeniu się.

Charakterystycznymi cechami informacji są:

Jest to najważniejszy zasób współczesnej produkcji: zmniejsza zapotrzebowanie na ziemię, pracę, kapitał, zmniejsza zużycie surowców i energii. Jeśli więc na przykład masz możliwość archiwizacji plików (tj. posiadasz takie informacje), nie musisz wydawać pieniędzy na zakup nowych dyskietek;

Informacje ożywiają nowe produkcje. Przykładowo wynalezienie wiązki laserowej było przyczyną powstania i rozwoju produkcji dysków laserowych (optycznych);

Informacja jest towarem i po sprzedaży nie jest tracona. Jeśli więc student w trakcie semestru przekaże koledze informację o planie zajęć, nie straci tych danych dla siebie;

Informacje dodają wartość innym zasobom, w szczególności pracy. Rzeczywiście, pracownik z wyższym wykształceniem jest ceniony bardziej niż ten z wykształceniem średnim.

Jak wynika z definicji, z informacją zawsze kojarzone są trzy pojęcia:

Źródłem informacji jest ten element otaczającego świata (obiekt, zjawisko, wydarzenie), o którym informacja jest przedmiotem transformacji. Zatem źródłem informacji, jakie obecnie otrzymuje czytelnik tego podręcznika, jest informatyka jako dziedzina działalności człowieka;

Zdobywca informacji to ten element otaczającego świata, który wykorzystuje informację (w celu kształtowania zachowań, podejmowania decyzji, zarządzania lub uczenia się). Nabywcą tych informacji jest sam czytelnik;

Sygnał to materialny nośnik, który rejestruje informację w celu przekazania jej od źródła do odbiorcy. W tym przypadku sygnał ma charakter elektroniczny. Jeżeli uczeń zabierze ten podręcznik z biblioteki, wówczas te same informacje będą zapisane na papierze. Po przeczytaniu i zapamiętaniu przez ucznia informacja nabierze innego nośnika – biologicznego, gdy zostanie „zapisana” w pamięci ucznia.

Sygnał jest najważniejszym elementem w tym obwodzie. Formy jej prezentacji oraz istotne dla odbiorcy informacji cechy ilościowe i jakościowe zawartych w niej informacji omówiono w dalszej części podręcznika. Główną charakterystykę komputera jako głównego narzędzia przekształcającego źródło informacji w sygnał (ogniwo 1 na rysunku) i „dostarczającego” sygnał do odbiorcy informacji (ogniwo 2 na rysunku) podano w rozdziale Komputer . Struktura procedur realizujących połączenia 1 i 2 tworzących proces informacyjny jest przedmiotem rozważań w części Proces informacyjny.

Obiekty świata materialnego znajdują się w stanie ciągłej zmiany, która charakteryzuje się wymianą energii pomiędzy obiektem a otoczeniem. Zmiana stanu jednego obiektu zawsze prowadzi do zmiany stanu innego obiektu środowiska. Zjawisko to, niezależnie od tego jak, jakie stany i jakie obiekty uległy zmianie, można uznać za przekazywanie sygnału z jednego obiektu na drugi. Zmiana stanu obiektu po przesłaniu do niego sygnału nazywana jest rejestracją sygnału.

Sygnał lub sekwencja sygnałów tworzy komunikat, który odbiorca może odebrać w takiej czy innej formie, a także w takiej czy innej objętości. Informacja w fizyce to termin, który jakościowo uogólnia pojęcia „sygnał” i „wiadomość”. Jeśli sygnały i komunikaty można określić ilościowo, wówczas możemy powiedzieć, że sygnały i komunikaty są jednostkami miary objętości informacji. Komunikat (sygnał) jest różnie interpretowany przez różne systemy. Na przykład kolejno długi i dwa krótkie sygnały dźwiękowe w terminologii alfabetu Morse'a oznaczają literę de (lub D), w terminologii BIOS-u stosowanej przez firmę przyznającą nagrodę jest to awaria karty graficznej.

Informacja jest

Rola informacji w matematyce

W matematyce teoria informacji (teoria komunikacji matematycznej) jest działem matematyki stosowanej, który definiuje pojęcie informacji, jej właściwości oraz ustanawia zależności ograniczające dla systemów transmisji danych. Główne gałęzie teorii informacji to kodowanie źródłowe (kodowanie kompresyjne) i kodowanie kanałowe (odporne na szumy). Matematyka to coś więcej niż dyscyplina naukowa. Tworzy jednolity język dla całej nauki.

Przedmiotem badań matematyki są obiekty abstrakcyjne: liczba, funkcja, wektor, zbiór i inne. Co więcej, większość z nich jest wprowadzana aksjomatycznie (aksjomat), tj. bez żadnego związku z innymi pojęciami i bez jakiejkolwiek definicji.

Informacja jest

informacje nie wchodzą w zakres badań matematycznych. Jednakże słowo „informacja” używane jest w kategoriach matematycznych – samoinformacji i informacji wzajemnej, związanych z abstrakcyjną (matematyczną) częścią teorii informacji. Jednak w teorii matematycznej pojęcie „informacji” kojarzy się wyłącznie z obiektami abstrakcyjnymi – zmiennymi losowymi, natomiast we współczesnej teorii informacji pojęcie to jest rozpatrywane znacznie szerzej – jako właściwość obiektów materialnych. Związek między tymi dwoma identycznymi terminami jest niezaprzeczalny. To właśnie matematycznego aparatu liczb losowych używał twórca teorii informacji, Claude Shannon. On sam pod pojęciem „informacji” rozumie coś fundamentalnego (nieredukowalnego). Teoria Shannona intuicyjnie zakłada, że ​​informacja ma treść. Informacja zmniejsza ogólną niepewność i entropię informacji. Ilość informacji jest mierzalna. Przestrzega jednak badaczy przed mechanicznym przenoszeniem pojęć ze swojej teorii do innych dziedzin nauki.

„Poszukiwanie sposobów zastosowania teorii informacji w innych dziedzinach nauki nie sprowadza się do trywialnego przeniesienia terminów z jednej dziedziny nauki do drugiej. Poszukiwanie to odbywa się w długim procesie stawiania nowych hipotez i ich eksperymentalnego sprawdzania .” K. Shannona.

Informacja jest

Rola informacji w cybernetyce

Założyciel cybernetyki, Norbert Wiener, mówił o takich informacjach:

informacja nie jest materią ani energią, informacja jest informacją.” Jednak podstawowa definicja informacji, którą podał w kilku swoich książkach, jest następująca: informacja to określenie treści otrzymywanej przez nas ze świata zewnętrznego, w procesie dostosowując nas i nasze uczucia.

Informacja jest podstawowym pojęciem cybernetyki, podobnie jak informacja ekonomiczna jest podstawowym pojęciem cybernetyki ekonomicznej.

Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem jest oczywiście to, że cybernetyką jako zjawiskiem zajmują się różne nauki, a cybernetyka jest dopiero najmłodszą z nich. Informacja jest przedmiotem badań takich nauk, jak nauki o zarządzaniu, matematyka, genetyka i teoria środków masowego przekazu (druk, radio, telewizja), informatyka, która zajmuje się problematyką informacji naukowej i technicznej itp. Wreszcie filozofowie wykazali ostatnio duże zainteresowanie problematyką informacji: skłonni są uważać informację za jedną z głównych uniwersalnych właściwości materii, związaną z koncepcją refleksji. Przy wszystkich interpretacjach pojęcia informacji zakłada ono istnienie dwóch obiektów: źródła informacji i nabywcy (odbiorcy) informacji. Przekazywanie informacji między sobą odbywa się za pomocą sygnałów, co, ogólnie rzecz biorąc, odbywa się za pomocą sygnałów. może nie mieć żadnego fizycznego związku z jego znaczeniem: niniejszy przekaz jest ustalany w drodze umowy. Przykładowo, bicie dzwonu veche oznaczało, że trzeba było zebrać się na placu, lecz tym, którzy nie wiedzieli o tym nakazie, nie przekazywał żadnych informacji.

W sytuacji z dzwonkiem veche osoba uczestnicząca w uzgadnianiu znaczenia sygnału wie, że w tej chwili mogą być dwie alternatywy: spotkanie veche się odbędzie lub nie. Lub, w języku teorii informacji, niepewne wydarzenie (veche) ma dwa skutki. Otrzymany sygnał prowadzi do zmniejszenia niepewności: osoba wie już, że dane wydarzenie (wieczór) ma tylko jeden wynik – nastąpi. Jeżeli jednak z góry było wiadomo, że spotkanie odbędzie się o takiej a takiej godzinie, dzwonek nie zapowiadał niczego nowego. Wynika z tego, że im mniej prawdopodobny (tj. bardziej nieoczekiwany) jest komunikat, tym więcej zawiera informacji i odwrotnie, im większe prawdopodobieństwo wyniku przed wystąpieniem zdarzenia, tym mniej informacji zawiera. Mniej więcej to samo rozumowanie przeprowadzono w latach 40. XX wieku. XX wiek do powstania statystycznej, czyli „klasycznej” teorii informacji, która definiuje pojęcie informacji poprzez miarę zmniejszania niepewności wiedzy o wystąpieniu zdarzenia (miarę tę nazwano entropią). Początkami tej nauki byli N. Wiener, K. Shannon i radzieccy naukowcy A. N. Kołmogorow, V. A. Kotelnikow i inni. Byli w stanie wyprowadzić prawa matematyczne do pomiaru ilości informacji, a stąd takie pojęcia, jak pojemność kanału i., pojemność pamięci I. urządzeń itp., co stanowiło potężną zachętę do rozwoju cybernetyki jako nauki i elektronicznej technologii obliczeniowej jako praktycznego zastosowania osiągnięć cybernetyki.

Jeśli chodzi o określenie wartości i przydatności informacji dla odbiorcy, nadal pozostaje wiele nierozwiązanych i niejasnych kwestii. Jeśli wyjdziemy od potrzeb zarządzania gospodarczego, a co za tym idzie cybernetyki ekonomicznej, to informację można zdefiniować jako całość informacji, wiedzy i komunikatów, które pomagają rozwiązać konkretny problem zarządzania (czyli zmniejszyć niepewność jego wyników). Otwierają się wtedy pewne możliwości oceny informacji: jest ona tym bardziej użyteczna, tym cenniejsza, im szybciej lub mniej koszty prowadzi do rozwiązania problemu. Pojęcie informacji jest bliskie pojęciu danych. Jest jednak między nimi różnica: dane są sygnałami, z których należy jeszcze wydobyć informacje. Przetwarzanie danych to proces doprowadzenia ich do odpowiedniej do tego postaci.

Proces ich przekazywania od źródła do odbiorcy i postrzegania jako informacji można uznać za przejście przez trzy filtry:

Fizyczne lub statystyczne (czysto ilościowe ograniczenie przepustowości kanału, niezależnie od zawartości danych, tj. z punktu widzenia syntaktyki);

Semantyczny (wybór takich danych, które są zrozumiałe dla odbiorcy, czyli odpowiadają tezaurusowi jego wiedzy);

Pragmatyczny (wybór spośród zrozumiałych informacji tych, które są przydatne do rozwiązania danego problemu).

Widać to wyraźnie na diagramie zaczerpniętym z książki E. G. Yasina o informacji gospodarczej. W związku z tym wyróżnia się trzy aspekty badania problemów językowych – syntaktyczny, semantyczny i pragmatyczny.

Ze względu na treść informacje dzielą się na społeczno-polityczne, społeczno-ekonomiczne (w tym ekonomiczne), naukowo-techniczne itp. Ogólnie rzecz biorąc, istnieje wiele klasyfikacji informacji, opierają się one na różnych podstawach. Z reguły, ze względu na bliskość pojęć, klasyfikacje danych konstruowane są w ten sam sposób. Na przykład informacja jest podzielona na statyczną (stała) i dynamiczną (zmienną), a dane są podzielone na stałe i zmienne. Kolejnym podziałem jest informacja pierwotna, pochodna, wyjściowa (w ten sam sposób klasyfikuje się dane). Trzeci dział to I. kontrolowanie i informowanie. Po czwarte - zbędne, przydatne i fałszywe. Po piąte – kompletne (ciągłe) i selektywne. Ta koncepcja Wienera daje bezpośrednie wskazanie na obiektywność informacji, tj. jego istnienie w przyrodzie jest niezależne od ludzkiej świadomości (percepcji).

Informacja jest

Współczesna cybernetyka definiuje informację obiektywną jako obiektywną właściwość obiektów i zjawisk materialnych, która generuje różnorodne stany, które poprzez fundamentalne oddziaływania materii są przekazywane z jednego obiektu (procesu) na drugi i odciśnięte w jego strukturze. System materialny w cybernetyce jest uważany za zbiór obiektów, które same mogą znajdować się w różnych stanach, ale o stanie każdego z nich decydują stany innych obiektów układu.

Informacja jest

W naturze wiele stanów systemu reprezentuje informację; same stany reprezentują kod pierwotny, czyli kod źródłowy. Zatem każdy system materialny jest źródłem informacji. Cybernetyka definiuje informację subiektywną (semantyczną) jako znaczenie lub treść komunikatu.

Rola informacji w informatyce

Przedmiotem nauki są dane: sposoby ich tworzenia, przechowywania, przetwarzania i przesyłania. Treść (też: „treść” (w kontekście), „zawartość witryny”) to termin oznaczający wszelkiego rodzaju informacje (zarówno tekstowe, jak i multimedialne - obrazy, audio, wideo), które składają się na treść (wizualizowaną, dla odwiedzającego, treść ) strony internetowej. Służy do oddzielenia pojęcia informacji tworzącej wewnętrzną strukturę strony/strony (kod) od tego, co ostatecznie zostanie wyświetlone na ekranie.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kursie informatyki, jednak nie da się go zdefiniować za pomocą innych, bardziej „prostych” pojęć.

Można wyróżnić następujące podejścia do ustalania informacji:

Tradycyjne (zwykłe) - stosowane w informatyce: informacja to informacja, wiedza, komunikaty o stanie rzeczy, które człowiek odbiera ze świata zewnętrznego za pomocą zmysłów (wzrok, słuch, smak, węch, dotyk).

Probabilistyczna - stosowana w teorii informacji: informacja to informacja o obiektach i zjawiskach otoczenia, ich parametrach, właściwościach i stanie, które zmniejszają stopień niepewności i niekompletności wiedzy o nich.

Informacje są przechowywane, przesyłane i przetwarzane w formie symbolicznej (znaku). Te same informacje można przedstawić w różnych formach:

Pismo migowe, składające się z różnych znaków, wśród których wyróżnia się znaki symboliczne w postaci tekstu, cyfr, znaków specjalnych. postacie; graficzny; tabelaryczne itp.;

W formie gestów lub sygnałów;

Ustna forma werbalna (rozmowa).

Informacje prezentowane są przy użyciu języków jako systemów znaków, które zbudowane są w oparciu o określony alfabet i posiadają zasady wykonywania operacji na znakach. Język jest specyficznym systemem znaków służącym do przedstawiania informacji. Istnieć:

Języki naturalne to języki mówione w formie mówionej i pisanej. W niektórych przypadkach język mówiony można zastąpić językiem mimiki i gestów, językiem znaków specjalnych (na przykład znaków drogowych);

Języki formalne to języki specjalne dla różnych dziedzin ludzkiej działalności, które charakteryzują się ściśle ustalonym alfabetem i bardziej rygorystycznymi zasadami gramatyki i składni. Jest to język muzyki (nuty), język matematyki (cyfry, symbole matematyczne), systemy liczbowe, języki programowania itp. Podstawą każdego języka jest alfabet – zbiór symboli/znaków. Całkowita liczba symboli alfabetu nazywana jest zwykle potęgą alfabetu.

Media informacyjne to medium lub ciało fizyczne służące do przesyłania, przechowywania i odtwarzania informacji. (Są to elektryczne, świetlne, termiczne, dźwiękowe, radio sygnały, dyski magnetyczne i laserowe, publikacje drukowane, fotografie itp.)

Procesy informacyjne to procesy związane z otrzymywaniem, przechowywaniem, przetwarzaniem i przesyłaniem informacji (tj. czynności wykonywane na informacjach). Te. Są to procesy, podczas których zmienia się treść informacji lub forma jej prezentacji.

Aby zapewnić proces informacyjny, wymagane jest źródło informacji, kanał komunikacji i nabywca informacji. Źródło przekazuje (wysyła) informację, a odbiorca ją odbiera (postrzega). Przesyłana informacja przemieszcza się od źródła do odbiorcy za pomocą sygnału (kodu). Zmiana sygnału umożliwia uzyskanie informacji.

Będąc przedmiotem transformacji i użytkowania, informacja charakteryzuje się następującymi właściwościami:

Składnia to właściwość określająca sposób prezentacji informacji na nośniku (w sygnale). Tym samym informacje te prezentowane są na nośnikach elektronicznych przy użyciu określonej czcionki. Tutaj możesz także wziąć pod uwagę takie parametry prezentacji informacji, jak styl i kolor czcionki, jej rozmiar, odstępy między wierszami itp. O wyborze niezbędnych parametrów jako właściwości składniowych decyduje oczywiście zamierzony sposób transformacji. Na przykład dla osoby słabo widzącej ważny jest rozmiar i kolor czcionki. Jeśli planujesz wprowadzić ten tekst do komputera za pomocą skanera, ważny jest rozmiar papieru;

Semantyka to właściwość określająca znaczenie informacji jako zgodność sygnału ze światem rzeczywistym. Zatem semantyka sygnału „informatyka” kryje się w podanej wcześniej definicji. Semantykę można uznać za pewną, znaną odbiorcy informacji, zgodę na to, co oznacza każdy sygnał (tzw. reguła interpretacji). Na przykład semantykę sygnałów bada początkujący kierowca, studiując zasady ruchu drogowego, ucząc się znaków drogowych (w tym przypadku same znaki są sygnałami). Semantyki słów (sygnałów) uczy się uczeń języka obcego. Można powiedzieć, że celem nauczania informatyki jest studiowanie semantyki różnych sygnałów – istoty kluczowych pojęć tej dyscypliny;

Pragmatyka to właściwość określająca wpływ informacji na zachowanie nabywcy. Zatem pragmatyką informacji, jakie otrzymuje czytelnik tego podręcznika, jest co najmniej pomyślne zdanie egzaminu z informatyki. Chciałbym wierzyć, że pragmatyka tej pracy nie będzie się na tym ograniczać, ale posłuży ona dalszemu kształceniu i aktywności zawodowej czytelnika.

Informacja jest

Należy zauważyć, że sygnały różniące się składnią mogą mieć tę samą semantykę. Na przykład sygnały „komputer” i „komputer” oznaczają urządzenie elektroniczne służące do przetwarzania informacji. W tym przypadku zwykle mówimy o synonimii sygnału. Z drugiej strony, jeden sygnał (czyli informacja o jednej właściwości syntaktycznej) może mieć dla konsumentów inną pragmatykę i inną semantykę. Zatem znak drogowy zwany „cegłą” i posiadający bardzo specyficzną semantykę („zakaz wjazdu”) oznacza dla kierowcy zakaz wjazdu, ale nie ma żadnego wpływu na pieszego. Jednocześnie sygnał „klucz” może mieć różną semantykę: klucz wiolinowy, klucz sprężynowy, klucz do otwierania zamka, klucz stosowany w informatyce do kodowania sygnału w celu zabezpieczenia go przed nieupoważnionym dostępem (w w tym przypadku mowa o homonimii sygnału). Istnieją sygnały - antonimy, które mają przeciwną semantykę. Na przykład „zimno” i „gorąco”, „szybko” i „wolno” itp.

Przedmiotem badań informatyki są dane: metody ich tworzenia, przechowywania, przetwarzania i przesyłania. A sama informacja zapisana w danych, jej znaczenie, interesuje użytkowników systemów informatycznych, specjalistów z różnych nauk i dziedzin działalności: lekarz interesuje się informacją medyczną, geolog informacją geologiczną, biznesmen interesuje się informacjami handlowymi itp. (W szczególności informatyk jest zainteresowany informacjami na temat pracy z danymi).

Semiotyka - nauka o informacji

Nie można sobie wyobrazić informacji bez jej otrzymania, przetworzenia, przekazania itp., czyli poza ramami wymiany informacji. Wszelkie akty wymiany informacji odbywają się za pomocą symboli lub znaków, za pomocą których jeden system wpływa na drugi. Dlatego główną nauką badającą informację jest semiotyka - nauka o znakach i systemach znaków w przyrodzie i społeczeństwie (teoria znaków). W każdym akcie wymiany informacji można wyróżnić trzech „uczestników”, trzy elementy: znak, przedmiot, który on oznacza, oraz odbiorca (użytkownik) znaku.

W zależności od relacji pomiędzy rozważanymi elementami semiotykę dzieli się na trzy działy: syntaktykę, semantykę i pragmatykę. Syntaktyka bada znaki i relacje między nimi. Jednocześnie abstrahuje od treści znaku i jego praktycznego znaczenia dla odbiorcy. Semantyka bada relację między znakami a przedmiotami, które one oznaczają, abstrahując od odbiorcy znaków i wartości tego ostatniego: dla niego. Oczywiste jest, że badanie wzorców semantycznej reprezentacji obiektów w znakach jest niemożliwe bez uwzględnienia i wykorzystania ogólnych wzorców konstrukcji dowolnych systemów znakowych badanych przez syntaktykę. Pragmatyka zajmuje się badaniem relacji między znakami a ich użytkownikami. W ramach pragmatyki badane są wszystkie czynniki odróżniające jeden akt wymiany informacji od drugiego, wszelkie kwestie praktycznych skutków wykorzystania informacji i jej wartości dla odbiorcy.

W tym przypadku nieuchronnie wpływa to na wiele aspektów relacji znaków ze sobą i z oznaczanymi przez nie przedmiotami. Zatem trzem działam semiotyki odpowiadają trzy poziomy abstrakcji (odwrócenia uwagi) od cech konkretnych aktów wymiany informacji. Badanie informacji w całej jej różnorodności odpowiada poziomowi pragmatycznemu. Odwracając uwagę odbiorcy informacji, wykluczając go z rozważań, przechodzimy do jej badania na poziomie semantycznym. Wraz z abstrakcją od treści znaków analiza informacji zostaje przeniesiona na poziom syntaktyki. To przenikanie się głównych działów semiotyki, związanych z różnymi poziomami abstrakcji, można przedstawić za pomocą diagramu „Trzy działy semiotyki i ich wzajemne powiązania”. Pomiar informacji odbywa się odpowiednio w trzech aspektach: syntaktycznym, semantycznym i pragmatycznym. Zapotrzebowanie na tak różne wymiary informacji, jak zostanie pokazane poniżej, jest podyktowane praktyką projektową i firmy obsługa systemów informatycznych. Rozważmy typową sytuację produkcyjną.

Pod koniec zmiany planista budowy przygotowuje dane dotyczące harmonogramu produkcji. Dane te trafiają do centrum informacyjno-obliczeniowego (ICC) przedsiębiorstwa, gdzie są przetwarzane i w formie raportów o bieżącym stanie produkcji wydawane menadżerom. Na podstawie otrzymanych danych kierownik warsztatu podejmuje decyzję o zmianie planu produkcji na kolejny planowany lub o podjęciu innych działań organizacyjnych. Oczywiście dla kierownika sklepu ilość informacji zawartych w podsumowaniu zależy od wielkości efektu ekonomicznego, jaki uzyska z ich wykorzystania w procesie decyzyjnym, od tego, jak przydatne były otrzymane informacje. Dla planisty serwisu o ilości informacji zawartej w tej samej wiadomości decyduje trafność jej zgodności ze stanem faktycznym na obiekcie oraz stopień zaskoczenia raportowanymi faktami. Im bardziej są one nieoczekiwane, tym szybciej należy je zgłosić kierownictwu, tym więcej informacji zawiera ta wiadomość. Dla pracowników ICC ilość znaków i długość komunikatu niosącego informację będzie miała ogromne znaczenie, gdyż to właśnie od niej zależy czas ładowania sprzętu komputerowego i kanałów komunikacyjnych. Jednocześnie praktycznie nie interesuje ich ani użyteczność informacji, ani ilościowy miernik wartości semantycznej informacji.

Naturalnie organizując system zarządzania produkcją i budując modele wyboru decyzji, będziemy wykorzystywać użyteczność informacji jako miarę informatywności komunikatów. Podczas budowania systemu księgowość oraz raportowanie, które dostarcza wskazówek dotyczących postępu procesu produkcyjnego, za miarę ilości informacji należy przyjąć nowość otrzymanych informacji. Firma Te same procedury mechanicznego przetwarzania informacji wymagają pomiaru objętości komunikatów w postaci liczby przetworzonych znaków. Te trzy zasadniczo różne podejścia do pomiaru informacji nie są sprzeczne ani wzajemnie się wykluczają. Wręcz przeciwnie, mierząc informacje w różnych skalach, pozwalają na pełniejszą i kompleksową ocenę zawartości informacyjnej każdego przekazu oraz efektywniej organizują system zarządzania produkcją. Według trafnego określenia prof. NIE. Kobryńskiego, jeśli chodzi o racjonalne przedsiębiorstwo przepływu informacji, ilość, nowość i użyteczność informacji są ze sobą powiązane tak samo, jak ilość, jakość i koszt wytwarzanych produktów.

Informacje w świecie materialnym

informacja jest jednym z ogólnych pojęć związanych z materią. Informacja istnieje w każdym obiekcie materialnym w postaci różnorodnych jego stanów i jest przenoszona z obiektu na obiekt w procesie ich interakcji. Istnienie informacji jako obiektywnej właściwości materii wynika logicznie ze znanych podstawowych właściwości materii – budowy, ciągłej zmiany (ruchu) i wzajemnego oddziaływania obiektów materialnych.

Struktura materii objawia się wewnętrznym rozczłonkowaniem integralności, naturalnym porządkiem łączenia elementów w całość. Innymi słowy, każdy obiekt materialny, począwszy od subatomowej cząstki Metawszechświata (Wielkiego Wybuchu) jako całości, jest systemem połączonych ze sobą podsystemów. W wyniku ciągłego ruchu, rozumianego szeroko jako ruch w przestrzeni i rozwój w czasie, obiekty materialne zmieniają swój stan. Stany obiektów zmieniają się także podczas interakcji z innymi obiektami. Zbiór stanów systemu materialnego i wszystkich jego podsystemów reprezentuje informację o systemie.

Ściśle mówiąc, ze względu na niepewność, nieskończoność i właściwości struktury, ilość obiektywnej informacji w każdym obiekcie materialnym jest nieskończona. Informacje te nazywane są kompletnymi. Można jednak wyróżnić poziomy strukturalne o skończonych zbiorach stanów. Informacje istniejące na poziomie strukturalnym o skończonej liczbie stanów nazywane są prywatnymi. W przypadku informacji prywatnych koncepcja ilości informacji ma sens.

Z powyższej prezentacji logiczny i prosty jest wybór jednostki miary ilości informacji. Wyobraźmy sobie układ, który może znajdować się tylko w dwóch stanach jednakowo prawdopodobnych. Jednemu z nich przypiszemy kod „1”, a drugiemu „0”. Jest to minimalna ilość informacji, jaką może pomieścić system. Jest to jednostka miary informacji i nazywa się bitem. Istnieją inne, trudniejsze do zdefiniowania metody i jednostki pomiaru ilości informacji.

W zależności od materialnej formy nośnika, informacja dzieli się na dwa główne typy – analogową i dyskretną. Informacje analogowe zmieniają się w sposób ciągły w czasie i pobierają wartości z kontinuum wartości. Informacje dyskretne zmieniają się w niektórych momentach i przyjmują wartości z określonego zestawu wartości. Podstawowym źródłem informacji jest każdy materialny obiekt lub proces. Wszystkie jego możliwe stany składają się na kod źródłowy informacji. Chwilowa wartość stanów jest reprezentowana jako symbol („litera”) tego kodu. Aby informacja mogła zostać przesłana z jednego obiektu do drugiego jako odbiorcy, konieczne jest istnienie jakiegoś pośredniego ośrodka materialnego, który oddziałuje ze źródłem. Takie nośniki w przyrodzie z reguły szybko rozprzestrzeniają się procesy struktury falowej - promieniowanie kosmiczne, gamma i rentgenowskie, fale elektromagnetyczne i dźwiękowe, potencjały (i być może jeszcze nie odkryte fale) pola grawitacyjnego. Kiedy promieniowanie elektromagnetyczne oddziałuje z obiektem w wyniku absorpcji lub odbicia, zmienia się jego widmo, tj. zmieniają się intensywności niektórych długości fal. Harmoniczne drgań dźwięku zmieniają się także podczas interakcji z obiektami. Informacja przekazywana jest również poprzez interakcję mechaniczną, jednak interakcja mechaniczna z reguły prowadzi do dużych zmian w strukturze obiektów (aż do ich zniszczenia), a informacja jest znacznie zniekształcona. Zniekształcenie informacji podczas jej transmisji nazywa się dezinformacją.

Przeniesienie informacji źródłowej na strukturę nośnika nazywa się kodowaniem. W tym przypadku kod źródłowy jest konwertowany na kod nośnika. Nośnik, do którego przesłano kod źródłowy w postaci kodu nośnego, nazywany jest sygnałem. Odbiornik sygnału ma swój własny zestaw możliwych stanów, który nazywany jest kodem odbiornika. Sygnał wchodząc w interakcję z obiektem odbierającym zmienia swój stan. Proces przekształcania kodu sygnału w kod odbiornika nazywany jest dekodowaniem. Transfer informacji ze źródła do odbiornika można uznać za interakcję informacyjną. Interakcja informacyjna zasadniczo różni się od innych interakcji. We wszystkich innych interakcjach obiektów materialnych następuje wymiana materii i (lub) energii. W tym przypadku jeden z obiektów traci materię lub energię, a drugi ją zyskuje. Ta właściwość interakcji nazywa się symetrią. Podczas interakcji informacyjnej odbiorca otrzymuje informację, ale źródło jej nie traci. Interakcja informacyjna jest asymetryczna. Obiektywna informacja sama w sobie nie jest materialna, jest właściwością materii, taką jak struktura, ruch i istnieje na nośnikach materialnych w postaci własnych kodów.

Informacje w dzikiej przyrodzie

Dzika przyroda jest złożona i różnorodna. Źródłem i odbiorcą informacji w nim są żywe organizmy i ich komórki. Organizm ma szereg właściwości odróżniających go od nieożywionych obiektów materialnych.

Podstawowy:

Ciągła wymiana materii, energii i informacji z otoczeniem;

Drażliwość, zdolność organizmu do postrzegania i przetwarzania informacji o zmianach w otoczeniu i środowisku wewnętrznym organizmu;

Pobudliwość, zdolność reagowania na bodźce;

Samoorganizacja objawiająca się zmianami w organizmie w celu przystosowania się do warunków środowiskowych.

Organizm rozumiany jako system ma strukturę hierarchiczną. Struktura ta w stosunku do samego organizmu dzieli się na poziomy wewnętrzne: molekularny, komórkowy, narządowy i wreszcie sam organizm. Jednak organizm oddziałuje również ponad organizmami żywymi, których poziomami są populacja, ekosystem i cała żywa przyroda jako całość (biosfera). Przepływy nie tylko materii i energii, ale także informacji krążą pomiędzy wszystkimi tymi poziomami. Interakcje informacyjne w przyrodzie ożywionej zachodzą w taki sam sposób, jak w przyrodzie nieożywionej. Jednocześnie żywa przyroda w procesie ewolucji stworzyła szeroką gamę źródeł, nośników i odbiorców informacji.

Reakcja na wpływy świata zewnętrznego objawia się we wszystkich organizmach, ponieważ jest spowodowana drażliwością. U organizmów wyższych adaptacja do środowiska zewnętrznego jest działaniem złożonym, skutecznym jedynie przy dostatecznie pełnej i aktualnej informacji o środowisku. Odbiorcami informacji ze środowiska zewnętrznego są ich narządy zmysłów, do których zalicza się wzrok, słuch, węch, smak, dotyk oraz narząd przedsionkowy. W wewnętrznej strukturze organizmów znajdują się liczne receptory wewnętrzne związane z układem nerwowym. Układ nerwowy składa się z neuronów, których procesy (aksony i dendryty) są analogiczne do kanałów przekazywania informacji. Głównymi narządami przechowującymi i przetwarzającymi informacje u kręgowców są rdzeń kręgowy i mózg. Zgodnie z charakterystyką zmysłów, informacje odbierane przez organizm można podzielić na wizualne, słuchowe, smakowe, węchowe i dotykowe.

Gdy sygnał dociera do siatkówki ludzkiego oka, w szczególny sposób pobudza komórki tworzące tę część oka. Impulsy nerwowe z komórek przekazywane są poprzez aksony do mózgu. Mózg zapamiętuje to uczucie w postaci pewnej kombinacji stanów neuronów składowych. (Przykład jest kontynuowany w części „Informacja w społeczeństwie ludzkim”). Gromadząc informacje, mózg tworzy na swojej strukturze połączony model informacyjny otaczającego świata. W przyrodzie żywej ważną cechą organizmu odbierającego informację jest jej dostępność. Ilość informacji, jaką ludzki układ nerwowy jest w stanie przesłać do mózgu podczas czytania tekstu, wynosi około 1 bit na 1/16 s.

Informacja jest

Badanie organizmów komplikuje ich złożoność. Abstrakcja struktury jako zbioru matematycznego, akceptowalna dla obiektów nieożywionych, jest mało akceptowalna dla organizmu żywego, gdyż aby stworzyć mniej lub bardziej adekwatny abstrakcyjny model organizmu, należy wziąć pod uwagę wszystkie hierarchiczne poziomach jego struktury. Dlatego trudno jest wprowadzić miarę ilości informacji. Bardzo trudno jest określić powiązania pomiędzy elementami konstrukcji. Jeśli wiadomo, który narząd jest źródłem informacji, to jaki jest sygnał, a jaki odbiornik?

Przed pojawieniem się komputerów biologia, która zajmuje się badaniem organizmów żywych, była wykorzystywana wyłącznie jakościowo, tj. modele opisowe. W modelu jakościowym prawie niemożliwe jest uwzględnienie powiązań informacyjnych pomiędzy elementami konstrukcji. Elektroniczna technologia obliczeniowa umożliwiła zastosowanie nowych metod w badaniach biologicznych, w szczególności metody modelowania maszynowego, która polega na matematycznym opisie znanych zjawisk i procesów zachodzących w organizmie, dodaniu do nich hipotez na temat niektórych nieznanych procesów i obliczeniu możliwych zachowań wzorce organizmu. Uzyskane opcje porównuje się z rzeczywistym zachowaniem organizmu, co pozwala określić prawdziwość lub fałszywość postawionych hipotez. Takie modele mogą również uwzględniać interakcję informacyjną. Procesy informacyjne zapewniające istnienie samego życia są niezwykle złożone. I choć intuicyjnie wiadomo, że właściwość ta jest bezpośrednio związana z tworzeniem, przechowywaniem i przekazywaniem pełnej informacji o budowie organizmu, to abstrakcyjny opis tego zjawiska przez pewien czas wydawał się niemożliwy. Jednak procesy informacyjne zapewniające istnienie tej właściwości zostały częściowo odsłonięte poprzez rozszyfrowanie kodu genetycznego i odczytanie genomów różnych organizmów.

Informacja w społeczeństwie ludzkim

Rozwój materii w procesie ruchu ma na celu skomplikowanie struktury obiektów materialnych. Jedną z najbardziej złożonych struktur jest ludzki mózg. Jak dotąd jest to jedyna znana nam struktura, która ma właściwość, którą sam człowiek nazywa świadomością. Mówiąc o informacji, my, istoty myślące, a priori mamy na myśli, że informacja oprócz swojej obecności w postaci sygnałów, które otrzymujemy, ma również pewne znaczenie. Tworząc w swoim umyśle model otaczającego świata jako połączony zbiór modeli jego obiektów i procesów, człowiek posługuje się pojęciami semantycznymi, a nie informacją. Znaczenie jest istotą każdego zjawiska, która nie pokrywa się ze sobą i łączy je z szerszym kontekstem rzeczywistości. Samo słowo bezpośrednio wskazuje, że treść semantyczną informacji mogą formować jedynie myślący odbiorcy informacji. W społeczeństwie ludzkim decydujące znaczenie ma nie sama informacja, ale jej treść semantyczna.

Przykład (ciąg dalszy). Doświadczywszy takiego wrażenia, osoba przypisuje przedmiotowi pojęcie „pomidor”, a jego stanowi pojęcie „kolor czerwony”. Ponadto jego świadomość naprawia połączenie: „pomidor” - „czerwony”. Takie jest znaczenie odbieranego sygnału. (Przykład kontynuowany poniżej w tej sekcji). Zdolność mózgu do tworzenia znaczących koncepcji i połączeń między nimi jest podstawą świadomości. Świadomość można uznać za samodoskonalący się model semantyczny otaczającego świata. Znaczenie nie jest informacją. Informacja istnieje wyłącznie na materialnym nośniku. Ludzka świadomość jest uważana za niematerialną. Znaczenie istnieje w ludzkim umyśle w postaci słów, obrazów i wrażeń. Osoba może wymawiać słowa nie tylko na głos, ale także „do siebie”. Potrafi także „we własnym umyśle” tworzyć (lub zapamiętywać) obrazy i doznania. Może jednak uzyskać informacje odpowiadające temu znaczeniu, mówiąc lub pisząc słowa.

Informacja jest

Przykład (ciąg dalszy). Jeśli słowa „pomidor” i „czerwony” są znaczeniem tych pojęć, to gdzie jest informacja? informacja zawarta jest w mózgu w postaci pewnych stanów jego neuronów. Jest on również zawarty w drukowanym tekście składającym się z tych słów, a przy kodowaniu liter za pomocą trzybitowego kodu binarnego jego ilość wynosi 120 bitów. Jeśli wypowiesz te słowa na głos, informacji będzie znacznie więcej, ale znaczenie pozostanie takie samo. Obraz wizualny niesie ze sobą największą ilość informacji. Znajduje to odzwierciedlenie nawet w folklorze: „lepiej raz zobaczyć, niż usłyszeć sto razy”. Informacje odtworzone w ten sposób nazywane są informacjami semantycznymi, ponieważ kodują znaczenie niektórych informacji pierwotnych (semantyka). Usłyszawszy (lub widząc) zdanie wypowiedziane (lub napisane) w języku, którego dana osoba nie zna, otrzymuje informacje, ale nie może określić ich znaczenia. Dlatego też, aby przekazać treść semantyczną informacji, niezbędne są pewne ustalenia pomiędzy źródłem a odbiorcą dotyczące treści semantycznej sygnałów, tj. słowa Taki umowy można osiągnąć poprzez komunikację. Komunikacja jest jednym z najważniejszych warunków istnienia społeczeństwa ludzkiego.

We współczesnym świecie informacja jest jednym z najważniejszych zasobów i jednocześnie jedną z sił napędowych rozwoju społeczeństwa ludzkiego. Procesy informacyjne zachodzące w świecie materialnym, przyrodzie żywej i społeczeństwie ludzkim są badane (lub przynajmniej brane pod uwagę) przez wszystkie dyscypliny naukowe, od filozofii po marketing. Rosnąca złożoność problemów badań naukowych doprowadziła do konieczności przyciągania do ich rozwiązywania dużych zespołów naukowców z różnych specjalności. Dlatego prawie wszystkie omówione poniżej teorie mają charakter interdyscyplinarny. Historycznie rzecz biorąc, badaniem samej informacji zajmowały się dwie złożone gałęzie nauki – cybernetyka i informatyka.

Współczesna cybernetyka jest interdyscyplinarna przemysł nauka badająca bardzo złożone systemy, takie jak:

Społeczeństwo ludzkie (cybernetyka społeczna);

Ekonomia (cybernetyka ekonomiczna);

Organizm żywy (cybernetyka biologiczna);

Ludzki mózg i jego funkcja to świadomość (sztuczna inteligencja).

Informatyka, ukształtowana jako nauka w połowie ubiegłego wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznych. Dwie z tych przemysł korzystać z kilku podstawowych teorii naukowych. Należą do nich teoria informacji i jej działy – teoria kodowania, teoria algorytmów i teoria automatów. Badania nad semantyczną treścią informacji opierają się na zestawie teorii naukowych pod ogólną nazwą semiotyka. Teoria informacji jest złożoną teorią, głównie matematyczną, obejmującą opis i ocenę metod wyszukiwania, przesyłania, przechowywania i klasyfikowania informacji. Rozważa media informacyjne jako elementy zbioru abstrakcyjnego (matematycznego), a interakcje pomiędzy mediami jako sposób uporządkowania elementów tego zbioru. Takie podejście umożliwia formalny opis kodu informacyjnego, czyli zdefiniowanie kodu abstrakcyjnego i badanie go metodami matematycznymi. Do badań tych wykorzystuje metody teorii prawdopodobieństwa, statystyki matematycznej, algebry liniowej, teorii gier i innych teorii matematycznych.

Podstawy tej teorii położył amerykański naukowiec E. Hartley w 1928 roku, który określił miarę ilości informacji dla niektórych problemów komunikacyjnych. Później teorię znacznie rozwinął amerykański naukowiec K. Shannon, rosyjscy naukowcy A.N. Kołmogorowa, V.M. Głuszkowa i innych. Współczesna teoria informacji obejmuje takie sekcje, jak teoria kodowania, teoria algorytmów, teoria automatów cyfrowych (patrz niżej) i kilka innych. Istnieją także alternatywne teorie informacji, jak na przykład „Jakościowa teoria informacji” zaproponowana przez Polaków naukowiec M. Mazur Pojęcie algorytmu zna każdy człowiek, nawet o tym nie wiedząc. Oto przykład nieformalnego algorytmu: „Pomidory pokroić w koła lub plasterki. Umieść w nich posiekaną cebulę, zalej olejem roślinnym, następnie posyp drobno posiekaną papryką i wymieszaj. Przed jedzeniem posypać solą, przełożyć do salaterki i udekorować natką pietruszki. (Sałatka pomidorowa).

Pierwsze zasady rozwiązywania problemów arytmetycznych w historii ludzkości zostały opracowane przez jednego ze słynnych naukowców starożytności, Al-Khorezmi, w IX wieku naszej ery. Na jego cześć sformalizowane zasady osiągania dowolnego celu nazywane są algorytmami. Przedmiotem teorii algorytmów jest znalezienie metod konstruowania i oceny skutecznych (w tym uniwersalnych) algorytmów obliczeniowych i sterujących przetwarzaniem informacji. Do uzasadnienia takich metod teoria algorytmów wykorzystuje aparat matematyczny teorii informacji. Nowoczesna koncepcja naukowa algorytmów jako metod przetwarzania informacji została wprowadzona w pracach E. Posta i A. Turinga w latach 20. XX wieku (Turing). Maszyna). Rosyjscy naukowcy A. Markov (Algorytm normalny Markowa) i A. Kołmogorow wnieśli ogromny wkład w rozwój teorii algorytmów. Teoria automatów to gałąź cybernetyki teoretycznej, która bada modele matematyczne faktycznie istniejących lub zasadniczo możliwych urządzeń przetwarzających dyskretne informacje. w dyskretnych momentach czasu.

Pojęcie automatu zrodziło się w teorii algorytmów. Jeśli istnieją uniwersalne algorytmy rozwiązywania problemów obliczeniowych, to muszą istnieć również urządzenia (choć abstrakcyjne) do realizacji takich algorytmów. W rzeczywistości abstrakcyjna maszyna Turinga, rozpatrywana w teorii algorytmów, jest jednocześnie nieformalnie zdefiniowanym automatem. Teoretyczne uzasadnienie konstrukcji takich urządzeń jest przedmiotem teorii automatów. Teoria automatów wykorzystuje aparat teorii matematycznych - algebrę, logikę matematyczną, analizę kombinatoryczną, teorię grafów, teorię prawdopodobieństwa itp. Teoria automatów wraz z teorią algorytmów. , jest główną podstawą teoretyczną tworzenia komputerów elektronicznych i zautomatyzowanych systemów sterowania. Semiotyka to zespół teorii naukowych badających właściwości systemów znakowych. Największe rezultaty osiągnięto w dziedzinie semiotyki – semantyki. Przedmiotem badań semantyki jest treść semantyczna informacji.

Za system znaków uważa się system obiektów konkretnych lub abstrakcyjnych (znaków, słów), z których każdy ma w określony sposób określone znaczenie. W teorii udowodniono, że mogą istnieć dwa takie porównania. Pierwszy rodzaj korespondencji bezpośrednio określa przedmiot materialny, który oznacza to słowo i nazywany jest denotacją (lub w niektórych pracach nominacją). Drugi rodzaj korespondencji określa znaczenie znaku (słowa) i nazywa się pojęciem. Jednocześnie badane są takie właściwości porównań, jak „znaczenie”, „prawda”, „definiowalność”, „podążanie”, „interpretacja” itp. Do badań wykorzystuje się aparat logiki matematycznej i lingwistyki matematycznej semantyki, zarysowanej w XIX w. przez G. V. Leibniza i F de Saussure’a, sformułowanej i rozwiniętej przez C. Pierce’a (1839-1914), C. Morrisa (ur. 1901), R. Carnapa (1891-1970) itd. Głównym osiągnięciem teorii jest stworzenie aparatu analizy semantycznej, który pozwala przedstawić znaczenie tekstu w języku naturalnym w formie zapisu w jakimś sformalizowanym języku semantycznym (semantycznym). Analiza semantyczna jest podstawą tworzenia urządzeń (programy) służące do tłumaczenia maszynowego z jednego języka naturalnego na inny.

Informacje są przechowywane poprzez przeniesienie ich na jakiś nośnik fizyczny. Informacje semantyczne zapisane na materialnym nośniku danych nazywane są dokumentem. Ludzkość nauczyła się przechowywać informacje bardzo dawno temu. Najstarsze formy przechowywania informacji wykorzystywały układ przedmiotów - muszle i kamienie na piasku, węzły na linie. Znaczącym rozwinięciem tych metod było pismo – graficzne przedstawienie symboli na kamieniu, glinie, papirusie i papierze. Duże znaczenie w rozwoju tego kierunku miał wynalazek drukowanie książek. W swojej historii ludzkość zgromadziła ogromną ilość informacji w bibliotekach, archiwach, czasopismach i innych dokumentach pisanych.

Obecnie szczególnego znaczenia nabiera przechowywanie informacji w postaci ciągów znaków binarnych. Aby wdrożyć te metody, stosuje się różne urządzenia pamięci masowej. Stanowią centralne ogniwo systemów przechowywania informacji. Oprócz nich systemy te wykorzystują środki wyszukiwania informacji (wyszukiwarka), środki pozyskiwania informacji (systemy informacyjne i referencyjne) oraz środki wyświetlania informacji (urządzenie wyjściowe). Tworzone zgodnie z przeznaczeniem informacji, takie systemy informacyjne tworzą bazy danych, banki danych i bazę wiedzy.

Transfer informacji semantycznej to proces jej przestrzennego przekazania od źródła do odbiorcy (adresata). Człowiek nauczył się przekazywać i odbierać informacje jeszcze wcześniej, niż je przechowywać. Mowa jest sposobem przekazu, który stosowali nasi odlegli przodkowie w bezpośrednim kontakcie (rozmowie) – i my z niego korzystamy do dziś. Aby móc przesyłać informacje na duże odległości, konieczne jest zastosowanie znacznie bardziej złożonych procesów informacyjnych. Aby taki proces mógł zostać zrealizowany, informacja musi zostać w jakiś sposób sformatowana (przedstawiona). Do przedstawienia informacji wykorzystuje się różne systemy znaków – zestawy ustalonych symboli semantycznych: przedmioty, obrazy, pisane lub drukowane słowa języka naturalnego. Informacje semantyczne o dowolnym przedmiocie, zjawisku lub procesie prezentowane za ich pomocą nazywane są komunikatem.

Oczywiście, aby przesłać wiadomość na odległość, informacja musi zostać przeniesiona na jakiś mobilny nośnik. Przewoźnicy mogą przemieszczać się w przestrzeni kosmicznej za pomocą pojazdów, tak jak ma to miejsce w przypadku listów wysyłanych pocztą. Metoda ta zapewnia całkowitą niezawodność przekazu informacji, gdyż adresat otrzymuje oryginalną wiadomość, lecz wymaga znacznego czasu na przesłanie. Od połowy XIX w. upowszechniły się sposoby przekazywania informacji wykorzystujące naturalnie rozchodzący się nośnik informacji – wibracje elektromagnetyczne (drgania elektryczne, fale radiowe, światło). Wdrożenie tych metod wymaga:

Wstępne przeniesienie informacji zawartej w przekazie na nośnik – kodowanie;

Zapewnienie przesłania otrzymanego w ten sposób sygnału do odbiorcy specjalnym kanałem komunikacyjnym;

Odwrotna konwersja kodu sygnałowego na kod komunikatu – dekodowanie.

Informacja jest

Zastosowanie mediów elektromagnetycznych sprawia, że ​​dotarcie komunikatu do adresata jest niemal natychmiastowe, wymaga jednak dodatkowych działań zapewniających jakość (rzetelność i dokładność) przesyłanej informacji, gdyż rzeczywiste kanały komunikacji podlegają naturalnym i sztucznym zakłóceniom. Urządzenia realizujące proces przesyłania danych z systemów komunikacyjnych. W zależności od sposobu prezentacji informacji systemy komunikacji można podzielić na systemy znakowe (, telefaksowe), dźwiękowe (), wideo i kombinowane (telewizja). Najbardziej rozwiniętym systemem komunikacji w naszych czasach jest Internet.

Przetwarzanie danych

Ponieważ informacja nie jest materialna, jej przetwarzanie wiąże się z różnymi transformacjami. Procesy przetwarzania obejmują każdy transfer informacji z nośnika na inny nośnik. Informacje przeznaczone do przetwarzania nazywane są danymi. Głównym rodzajem przetwarzania pierwotnych informacji odbieranych przez różne urządzenia jest przekształcanie ich do postaci zapewniającej ich odbiór przez zmysły człowieka. Tym samym fotografie przestrzeni uzyskane w promieniach rentgenowskich przekształcane są w zwykłe kolorowe fotografie za pomocą specjalnych konwerterów widma i materiałów fotograficznych. Noktowizory przetwarzają obraz uzyskany w promieniach podczerwonych (termicznych) na obraz w zakresie widzialnym. W przypadku niektórych zadań komunikacyjnych i sterujących konieczna jest konwersja informacji analogowej. W tym celu stosuje się przetworniki sygnału analogowo-cyfrowego i cyfrowo-analogowego.

Najważniejszym rodzajem przetwarzania informacji semantycznej jest określenie znaczenia (treści) zawartej w danym komunikacie. W przeciwieństwie do podstawowej informacji semantycznej, nie ma jej statystyczny cechy, czyli miara ilościowa - albo jest znaczenie, albo go nie ma. A ile to jest, jeśli w ogóle, nie da się ustalić. Znaczenie zawarte w przekazie jest opisane sztucznym językiem, który odzwierciedla powiązania semantyczne pomiędzy słowami tekstu źródłowego. Słownik takiego języka, zwany tezaurusem, znajduje się w odbiorniku wiadomości. Znaczenie słów i wyrażeń w przekazie określa się poprzez przypisanie ich do określonych grup słów lub wyrażeń, których znaczenie zostało już ustalone. Tezaurus pozwala zatem ustalić znaczenie przekazu, a jednocześnie jest uzupełniany o nowe pojęcia semantyczne. Opisany rodzaj przetwarzania informacji jest stosowany w systemach wyszukiwania informacji i systemach tłumaczenia maszynowego.

Jednym z powszechnych rodzajów przetwarzania informacji jest rozwiązywanie problemów obliczeniowych i problemów automatycznego sterowania za pomocą komputerów. Przetwarzanie informacji zawsze odbywa się w jakimś celu. Aby to osiągnąć, musi być znana kolejność działań na informacjach prowadzących do danego celu. Ta procedura nazywa się algorytmem. Oprócz samego algorytmu potrzebne jest również urządzenie, które ten algorytm implementuje. W teoriach naukowych takie urządzenie nazywa się automatem. Należy zauważyć, że najważniejszą cechą informacji jest to, że na skutek asymetrii interakcji informacji, podczas przetwarzania informacji pojawiają się nowe informacje, ale pierwotna informacja nie zostaje tracona.

Informacje analogowe i cyfrowe

Dźwięk to drgania fal w dowolnym ośrodku, na przykład w powietrzu. Kiedy ktoś mówi, wibracje więzadeł gardła przekształcają się w wibracje falowe powietrza. Jeśli rozważymy dźwięk nie jako falę, ale jako wibracje w jednym punkcie, wówczas wibracje te można przedstawić jako zmieniające się w czasie ciśnienie powietrza. Za pomocą mikrofonu można wykryć zmiany ciśnienia i przekształcić je w napięcie elektryczne. Ciśnienie powietrza jest przekształcane na wahania napięcia elektrycznego.

Taka transformacja może zachodzić według różnych praw, najczęściej transformacja następuje według prawa liniowego. Na przykład tak:

U(t)=K(P(t)-P_0),

gdzie U(t) to napięcie elektryczne, P(t) to ciśnienie powietrza, P_0 to średnie ciśnienie powietrza, a K to współczynnik konwersji.

Zarówno napięcie elektryczne, jak i ciśnienie powietrza są funkcjami ciągłymi w czasie. Funkcje U(t) i P(t) są informacją o drganiach więzadeł gardła. Funkcje te są ciągłe i taką informację nazywa się analogową. Muzyka jest szczególnym przypadkiem dźwięku i można ją również przedstawić jako pewnego rodzaju funkcję czasu. Będzie to analogowa reprezentacja muzyki. Ale muzykę zapisuje się także w formie notatek. Każda nuta ma czas trwania stanowiący wielokrotność z góry określonego czasu trwania i wysokość dźwięku (do, re, mi, fa, salt itp.). Jeśli dane te zostaną przeliczone na liczby, otrzymamy cyfrową reprezentację muzyki.

Mowa ludzka jest również szczególnym przypadkiem dźwięku. Można go również przedstawić w formie analogowej. Ale tak jak muzykę można podzielić na nuty, tak mowę można rozłożyć na litery. Jeśli każdej literze zostanie przypisany własny zestaw liczb, otrzymamy cyfrową reprezentację mowy. Różnica między informacją analogową i cyfrową polega na tym, że informacja analogowa jest ciągła, podczas gdy informacja cyfrowa jest dyskretna , w zależności od rodzaju transformacji, nazywa się inaczej: po prostu „konwersją”, np. konwersją cyfrowo-analogową lub konwersją analogowo-cyfrową; złożone transformacje nazywane są „kodowaniem”, na przykład kodowaniem delta, kodowaniem entropijnym; Konwersja między charakterystykami, takimi jak amplituda, częstotliwość lub faza, nazywana jest „modulacją”, na przykład modulacja amplitudy i częstotliwości lub modulacja szerokości impulsu.

Informacja jest

Zazwyczaj konwersja analogowa jest dość prosta i można ją łatwo przeprowadzić za pomocą różnych urządzeń wymyślonych przez człowieka. Magnetofon przekształca namagnesowanie kliszy na dźwięk, dyktafon przetwarza dźwięk na namagnesowanie kliszy, kamera wideo przekształca światło w namagnesowanie kliszy, oscyloskop przetwarza napięcie lub prąd elektryczny na obraz itp. Konwersja informacji analogowej na cyfrową jest znacznie trudniejsza. Maszyna nie może dokonać pewnych przekształceń lub udaje jej się to z wielkim trudem. Na przykład konwersja mowy na tekst lub konwersja nagrania koncertu na nuty, a nawet z natury cyfrowe przedstawienie: tekst na papierze jest bardzo trudny do przekształcenia przez maszynę w ten sam tekst w pamięci komputera.

Informacja jest

Po co więc stosować cyfrową reprezentację informacji, skoro jest ona tak złożona? Główną przewagą informacji cyfrowych nad informacjami analogowymi jest odporność na zakłócenia. Oznacza to, że w procesie kopiowania informacji informacje cyfrowe są kopiowane w niezmienionej postaci, można je kopiować niemal nieskończoną liczbę razy, podczas gdy informacje analogowe stają się zaszumione podczas procesu kopiowania, a ich jakość ulega pogorszeniu. Zwykle informacje analogowe można skopiować nie więcej niż trzy razy. Jeśli masz magnetofon z dwiema kasetami, możesz przeprowadzić następujący eksperyment: spróbuj kilkakrotnie przepisać ten sam utwór z kasety na kasetę już po kilku takich ponownych nagraniach zauważysz, jak bardzo jakość nagrania uległa pogorszeniu. Informacje na kasecie zapisywane są w formie analogowej. Możesz przepisywać muzykę w formacie mp3 tyle razy, ile chcesz, a jakość muzyki nie ulega pogorszeniu. Informacje zawarte w pliku mp3 są przechowywane cyfrowo.

Ilość informacji

Osoba lub inny odbiorca informacji, otrzymawszy informację, rozwiewa pewną niepewność. Weźmy na przykład to samo drzewo. Kiedy zobaczyliśmy drzewo, rozwialiśmy wiele wątpliwości. Dowiadywaliśmy się o wysokości drzewa, jego gatunku, gęstości listowia, kolorze liści, a jeśli było to drzewo owocowe, to widzieliśmy na nim owoce, ich dojrzałość itp. Zanim spojrzeliśmy na drzewo, nie wiedzieliśmy tego wszystkiego, po spojrzeniu na drzewo rozwieliśmy niepewność – otrzymaliśmy informację.

Jeśli wyjdziemy na łąkę i przyjrzymy się jej, otrzymamy inny rodzaj informacji, jak duża jest łąka, jak wysoka jest trawa i jakiego koloru jest trawa. Jeśli biolog pojedzie na tę samą łąkę, to będzie mógł między innymi dowiedzieć się: jakie odmiany trawy na łące rosną, jaki to rodzaj łąki, zobaczy, jakie kwiaty zakwitły, jakie zaraz zakwitnie, czy łąka nadaje się do wypasu krów itp. Oznacza to, że otrzyma więcej informacji niż my, ponieważ miał więcej pytań, zanim spojrzał na łąkę, biolog rozwieje więcej wątpliwości.

Informacja jest

Im więcej niepewności rozwiewało się w procesie pozyskiwania informacji, tym więcej informacji otrzymywaliśmy. Jest to jednak subiektywna miara ilości informacji, a my chcielibyśmy mieć miarę obiektywną. Istnieje wzór na obliczenie ilości informacji. Mamy pewną niepewność i mamy N przypadków rozwiązania niepewności, a każdy przypadek ma pewne prawdopodobieństwo rozwiązania, wówczas ilość otrzymanych informacji można obliczyć za pomocą następującego wzoru, który zasugerował nam Shannon:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), gdzie

I - ilość informacji;

N - liczba wyników;

p_1, p_2,..., p_N to prawdopodobieństwa wyniku.

Informacja jest

Ilość informacji mierzy się w bitach – skrót od angielskiego słowa BInary digiT, co oznacza cyfrę binarną.

Dla zdarzeń równie prawdopodobnych wzór można uprościć:

I = log_(2)N, gdzie

I - ilość informacji;

N to liczba wyników.

Weźmy na przykład monetę i rzućmy ją na stół. Wyląduje orłem lub reszką. Mamy 2 równie prawdopodobne zdarzenia. Po rzucie monetą otrzymaliśmy log_(2)2=1 bit informacji.

Spróbujmy dowiedzieć się, ile informacji uzyskamy po rzucie kostką. Sześcian ma sześć boków – sześć równie prawdopodobnych zdarzeń. Otrzymujemy: log_(2)6 około 2,6. Po rzuceniu kostki na stół otrzymaliśmy około 2,6 bitu informacji.

Szansa, że ​​wychodząc z domu zobaczymy marsjańskiego dinozaura, wynosi jeden do dziesięciu miliardów. Ile informacji na temat marsjańskiego dinozaura dowiemy się po wyjściu z domu?

Lewy(((1 ponad (10^(10))) log_2(1 ponad (10^(10))) + lewy(( 1 - (1 ponad (10^(10))))) log_2 lewy(( 1 - (1 ponad (10^(10))) wysokość)) wysokość) około 3,4 cdot 10^(-9) bitów.

Załóżmy, że rzuciliśmy 8 monetami. Mamy 2^8 opcji upuszczania monet. Oznacza to, że po rzucie monetami otrzymamy log_2(2^8)=8 bitów informacji.

Kiedy zadajemy pytanie i z równym prawdopodobieństwem otrzymamy odpowiedź „tak” lub „nie”, to po udzieleniu odpowiedzi na pytanie otrzymujemy jedną informację.

Zadziwiające, że jeśli zastosujemy wzór Shannona do informacji analogowych, otrzymamy nieskończoną ilość informacji. Na przykład napięcie w punkcie obwodu elektrycznego może przyjąć równie prawdopodobną wartość od zera do jednego wolta. Liczba wyników, które mamy, jest równa nieskończoności i podstawiając tę ​​wartość do wzoru na zdarzenia równie prawdopodobne, otrzymujemy nieskończoność – nieskończoną ilość informacji.

Teraz pokażę ci, jak zakodować „wojnę i pokój” za pomocą tylko jednego znaku na dowolnym metalowym pręcie. Zakodujmy wszystkie litery i znaki znalezione w „ wojna i pokój”, posługując się liczbami dwucyfrowymi – one powinny nam wystarczyć. Przykładowo literze „A” nadamy kod „00”, literze „B” kodowi „01” i tak dalej, zakodujemy znaki interpunkcyjne, litery i cyfry łacińskie. Przekodujmy” wojna i świat” za pomocą tego kodu i uzyskaj długi numer, na przykład 70123856383901874..., dodaj przed tym numerem przecinek i zero (0,70123856383901874...). Wynikiem jest liczba od zera do jeden. Włóżmy ryzyko na metalowym pręcie tak, aby stosunek lewej strony pręta do długości tego pręta był dokładnie równy naszej liczbie. Jeśli więc nagle zapragniemy przeczytać „wojnę i pokój”, po prostu zmierzymy lewą stronę pręta ryzyko i długość całego pręta, podziel liczbę przez drugą, uzyskaj liczbę i przepisz ją z powrotem na litery („00” na „A”, „01” na „B” itp.).

Informacja jest

W rzeczywistości nie będziemy w stanie tego zrobić, ponieważ nie będziemy w stanie określić długości z nieskończoną dokładnością. Pewne problemy inżynieryjne uniemożliwiają nam zwiększenie dokładności pomiarów, a fizyka kwantowa pokazuje nam, że po pewnej granicy prawa kwantowe będą już nam przeszkadzać. Intuicyjnie rozumiemy, że im niższa dokładność pomiaru, tym mniej informacji otrzymujemy, a im większa dokładność pomiaru, tym więcej informacji otrzymujemy. Wzór Shannona nie nadaje się do pomiaru ilości informacji analogowej, ale istnieją do tego inne metody, które są omówione w teorii informacji. W technologii komputerowej bit odpowiada stanowi fizycznemu nośnika informacji: namagnesowany – nie namagnesowany, jest dziura – nie ma dziury, naładowany – nie naładowany, odbija światło – nie odbija światła, wysoki potencjał elektryczny – niski potencjał elektryczny. W tym przypadku jeden stan jest zwykle oznaczany liczbą 0, a drugi liczbą 1. Za pomocą ciągu bitów można zakodować dowolną informację: tekst, obraz, dźwięk itp.

Oprócz bitu często używana jest wartość zwana bajtem; zwykle wynosi ona 8 bitów. A jeśli bit pozwala wybrać jedną równie prawdopodobną opcję z dwóch możliwych, to bajt to 1 z 256 (2^8). Aby zmierzyć ilość informacji, często używa się również większych jednostek:

1 KB (jeden kilobajt) 210 bajtów = 1024 bajty

1 MB (jeden megabajt) 210 KB = 1024 KB

1 GB (jeden gigabajt) 210 MB = 1024 MB

W rzeczywistości przedrostki SI kilo-, mega-, giga- powinny być używane odpowiednio dla współczynników 10^3, 10^6 i 10^9, ale historycznie rzecz biorąc, istniała praktyka używania czynników o potędze dwójki.

Bit Shannona i bit używany w technologii komputerowej są takie same, jeśli prawdopodobieństwa pojawienia się zera lub jedynki w bicie komputerowym są równe. Jeśli prawdopodobieństwa nie są równe, wówczas ilość informacji według Shannona staje się mniejsza, co widzieliśmy na przykładzie marsjańskiego dinozaura. Komputerowa ilość informacji stanowi górną ocenę ilości informacji. Pamięć ulotna po zasileniu jest zwykle inicjowana jakąś wartością, na przykład samymi jedynkami lub wszystkimi zerami. Oczywiste jest, że po włączeniu zasilania pamięci nie ma tam żadnych informacji, ponieważ wartości w komórkach pamięci są ściśle określone, nie ma niepewności. Pamięć może przechowywać pewną ilość informacji, ale po włączeniu zasilania nie ma w niej żadnej informacji.

Dezinformacja to celowo nieprawdziwa informacja przekazywana wrogowi lub partnerowi biznesowemu w celu efektywniejszego prowadzenia działań wojennych, współpracy, sprawdzania wycieku informacji i kierunku jej wycieku, identyfikacji potencjalnych klientów czarnego rynku. Procesem jest także dezinformacja (także dezinformacja). manipulacji samą informacją, np.: wprowadzenie kogoś w błąd poprzez podanie informacji niekompletnych lub pełnych, ale już niepotrzebnych, zniekształcenie kontekstu, zniekształcenie części informacji.

Cel takiego oddziaływania jest zawsze ten sam – przeciwnik musi działać tak, jak tego potrzebuje manipulator. Działanie celu, przeciwko któremu skierowana jest dezinformacja, może polegać na podjęciu decyzji potrzebnej manipulatorowi lub na odmowie podjęcia decyzji niekorzystnej dla manipulatora. Ale w każdym razie ostatecznym celem jest akcja, którą podejmie przeciwnik.

Zatem dezinformacja jest produkt działalność człowieka, próba wywołania fałszywego wrażenia i w związku z tym nakłonienia do pożądanych działań i/lub zaniechania działania.

Informacja jest

Rodzaje dezinformacji:

Wprowadzanie w błąd konkretnej osoby lub grupy osób (w tym całego narodu);

Manipulacja (działania jednej osoby lub grupy osób);

Kreowanie opinii publicznej na temat problemu lub przedmiotu.

Informacja jest

Wprowadzanie w błąd to nic innego jak zwykłe wprowadzenie w błąd, czyli podanie fałszywych informacji. Manipulacja to metoda oddziaływania mająca na celu bezpośrednio zmianę kierunku działania człowieka. Wyróżnia się następujące poziomy manipulacji:

Wzmocnienie wartości (idei, postaw), które istnieją w umysłach ludzi i są korzystne dla manipulatora;

Częściowa zmiana poglądów na temat określonego zdarzenia lub okoliczności;

Radykalna zmiana postaw życiowych.

Kształtowanie opinii publicznej to kształtowanie w społeczeństwie określonej postawy wobec wybranego problemu.

Źródła i linki

ru.wikipedia.org - wolna encyklopedia Wikipedia

youtube.com – hosting filmów na YouTube

obrazy.yandex.ua - Zdjęcia Yandex

google.com.ua – obrazy Google

ru.wikibooks.org – Wikibooks

inf1.info - Planeta Informatyki

old.russ.ru - Magazyn rosyjski

shkolo.ru - Katalog informacyjny

5byte.ru - witryna informatyczna

ssti.ru - Technologie informacyjne

klgtu.ru - Informatyka

informatika.sch880.ru - strona internetowa nauczyciela informatyki O.V. Podwincewa

Encyklopedia kulturoznawstwa

Podstawowe pojęcie cybernetyki, podobnie ekonomicznej I. Podstawowe pojęcie cybernetyki ekonomicznej. Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem tego jest oczywiście to, że zajmuję się zjawiskiem... ... Słownik ekonomiczno-matematyczny

Informacja- Znaczące dane. [GOST R ISO 9000 2008] informacja Dowolny rodzaj wiedzy o obiektach, faktach, koncepcjach itp. obszaru problemowego, który jest wymieniany przez użytkowników systemu informacyjnego [GOST 34.320 96] informacja Informacja (wiadomości, dane)… … Przewodnik tłumacza technicznego

Informacja- i, f. informacje f., piętro informacya, łac. objaśnienie informacji, prezentacja. Wiadomość, informacja o czymś. BAS 1. Wszędzie i we wszystkim chroń interesy monarchów z całą wiernością, .. o wszystkim przekazuję mu bezpośrednio informację Szwymerowi... ... Historyczny słownik galicyzmów języka rosyjskiego

Informacja- dane, dane źródłowe, informacje; powiadomienie, wiadomość, powiadomienie, zawiadomienie; ranking, katamneza, aktualności, odniesienie, materiał, raport, informacja prasowa Słownik rosyjskich synonimów. informacje zobacz informacje Słownik synonimów języka rosyjskiego.... ... Słownik synonimów

INFORMACJA- (informacja) Dane dostępne dla osób fizycznych, firm lub rządów podczas podejmowania decyzji gospodarczych. W zasadzie istnieje nieskończenie duża ilość informacji; w praktyce nawet tak duże i wyrafinowane organizacje jak centrala... ... Słownik ekonomiczny

- (dane) Informacje przetwarzane, gromadzone lub wydawane przez komputer. Biznes. Słownik. M.: INFRA M, Wydawnictwo Ves Mir. Graham Betts, Barry Brindley, S. Williams i inni Redaktor naczelny: Ph.D. Osadchaya I.M.. 1998. Informacje... Słownik terminów biznesowych

INFORMACJA- INFORMACJA, informacja, kobiety. (książka, oficjalna). 1. tylko jednostki Akcja pod Ch. poinformować. Informacje podane są na odpowiednim poziomie. 2. Wiadomość informująca o stanie rzeczy lub czyjejś działalności, informacja o czymś. Dawanie... ... Słownik wyjaśniający Uszakowa

INFORMACJA- (z łac. informatio zapoznanie, wyjaśnienie) pojęcie stosowane w filozofii od czasów starożytnych, a ostatnio zyskało nowe, szersze znaczenie dzięki rozwojowi cybernetyki, gdzie pełni rolę jednej z centralnych kategorii... ... Encyklopedia filozoficzna

INFORMACJA- (od łac. informatio wyjaśnienie, świadomość) wszelkie informacje i dane odzwierciedlające właściwości obiektów w wymiarze naturalnym (biologicznym, fizycznym itp.), społecznym i technicznym. systemów i przesyłane za pomocą dźwięku, grafiki (w tym pisemnej) lub w inny sposób bez... ... Encyklopedia fizyczna

Lub w inny sposób (przy użyciu sygnałów konwencjonalnych, środków technicznych itp.); od połowy XX wieku termin „informacja” stał się ogólnym pojęciem naukowym, obejmującym wymianę informacji między ludźmi, osobą a automatem, automatem a automatem; wymiana sygnałów w świecie zwierząt i roślin; przenoszenie cech z komórki do komórki, z organizmu do organizmu (na przykład informacja genetyczna); jedno z podstawowych pojęć cybernetyki.

Istota i granice zjawiska

Słowo „informacja” pochodzi od łac. informacja, co oznacza informacja, wyjaśnienie, wprowadzenie. Pojęcie informacji rozważali starożytni filozofowie.

Historycznie rzecz biorąc, badaniem samej informacji zajmowały się dwie złożone gałęzie nauki - cybernetyka i informatyka.

Informatyka, ukształtowana jako nauka w połowie XX wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznej.

Badania nad semantyczną treścią informacji opierają się na zestawie teorii naukowych pod ogólną nazwą semiotyka [ ] .

Jeśli jednak na przykład przeprowadzimy choćby pobieżną analizę treści najpowszechniejszych dziś pojęć atrybutywnych i funkcjonalnych w odniesieniu do informacji, stanie się jasne, że oba te pojęcia ostatecznie opierają się na obiektywnej właściwości materii, ustalonej jeszcze w czasach starożytnych. XIX w. i oznaczony kategorią filozoficzną „refleksja”. Obie koncepcje nie poświęcają jednak wystarczającej uwagi badaniu oczywistej rzeczywistości, co objawia się tym, że informacja w postaci, w jakiej dzisiaj istnieje, jest wytworem ludzkiej świadomości, która sama w sobie jest wytworem formy najwyższej ( znanych form) materii.

Inaczej mówiąc, zwolennicy obu koncepcji, ignorując człowieka, ignorując naturę ludzkiej świadomości, natychmiast przypisują informację (wytwór świadomości) właściwości materii i od razu nazywają ją „atrybutem materii”. Wskutek tego błędu obydwa pojęcia nie są w stanie podać ścisłej definicji informacji jako pojęcia, gdyż ludzkie pojęcia napełniają się treścią w wyniku komunikacji człowieka z obiektywną rzeczywistością, a nie w wyniku działania, choć wyrafinowanego, na zewnątrz przekonujący, wiarygodny we wnioskach, z innymi koncepcjami. Próby przedstawienia informacji w formie kategorii również są skazane na niepowodzenie. Wystarczy wziąć pod uwagę, że praktyka człowieka na przestrzeni ostatnich dziesięcioleci tak szybko zmieniła formy i treść pojęć, a także jego wyobrażenia i postawy wobec tego, co dziś powszechnie nazywa się „informacją”, że natura, istota informacji i oczywiście treść tego pojęcia (jeśli nadal uważa się je za koncepcję) uległa znaczącym zmianom w czasie.

Klasyfikacja informacji

Informacja(z łac. informacja, wyjaśnienie, prezentacja, świadomość) to ogólna koncepcja naukowa związana z obiektywnymi właściwościami materii i ich odzwierciedleniem w ludzkiej świadomości.

We współczesnej nauce rozważa się dwa rodzaje informacji.

Informacje obiektywne (pierwotne).- właściwość obiektów i zjawisk materialnych (procesów) do generowania różnorodnych stanów, które poprzez interakcje (interakcje podstawowe) są przekazywane innym obiektom i odciśnięte w ich strukturze (patrz V.M. Głuszkow, N.M. Amosow i inni. „Encyklopedia cybernetyki”. Kijów 1975)

Informacje subiektywne (semantyczne, semantyczne, wtórne).– treść semantyczna obiektywnej informacji o przedmiotach i procesach świata materialnego, tworzona przez ludzką świadomość za pomocą obrazów semantycznych (słów, obrazów i wrażeń) i zapisywana na jakimś materialnym nośniku. Osoba charakteryzuje się subiektywnym postrzeganiem informacji poprzez pewien zestaw jej właściwości: znaczenie, wiarygodność, aktualność, dostępność, „mniej więcej” itp. Użycie określeń „więcej informacji” lub „mniej informacji” implikuje pewną możliwość jej pomiaru (lub przynajmniej korelacji ilościowej). Przy subiektywnym postrzeganiu pomiar informacji możliwy jest jedynie w formie ustalenia jakiejś subiektywnej skali porządkowej umożliwiającej ocenę „mniej więcej”. Obiektywnie mierząc ilość informacji, należy świadomie zrezygnować z jej postrzegania z punktu widzenia subiektywnych właściwości, których przykłady wymieniono powyżej. Co więcej, możliwe jest, że nie wszystkie informacje będą miały obiektywnie mierzalną ilość.

W potocznym znaczeniu informacja to informacja o otaczającym świecie i zachodzących w nim procesach, postrzegana przez osobę lub specjalne urządzenie (patrz S.I. Ozhegov, „Słownik języka rosyjskiego”. Moskwa, 1990). W najprostszym potocznym rozumieniu termin „informacja” kojarzy się zazwyczaj z jakąś informacją, danymi, wiedzą itp. Informacje przekazywane są w formie komunikatów, które określają formę i prezentację przesyłanych informacji. Przykładami wiadomości są utwory muzyczne; Widowisko telewizyjne; polecenia kontrolera ruchu na skrzyżowaniu; tekst wydrukowany na drukarce; dane uzyskane w wyniku stworzonego przez Ciebie programu itp. Zakłada się, że istnieje „źródło informacji” i „odbiorca informacji”. Komunikat od źródła do odbiorcy jest przesyłany za pośrednictwem jakiegoś medium, którym w tym przypadku jest „kanał komunikacyjny”. Zatem podczas przesyłania komunikatu głosowego za kanał komunikacyjny można uznać powietrze, w którym rozchodzą się fale dźwiękowe, a w przypadku przesyłania komunikatu pisemnego (na przykład tekstu wydrukowanego na drukarce) za kanał komunikatu można uznać arkusz papieru, na którym drukowany jest tekst. Aby przekaz mógł zostać przekazany od źródła do odbiorcy, potrzebna jest substancja materialna – nośnik informacji. Komunikat przekazywany przez medium jest sygnałem. Ogólnie rzecz biorąc, sygnał jest procesem fizycznym zmiennym w czasie. Charakterystyka procesu używana do reprezentowania komunikatów nazywana jest parametrem sygnału. W przypadku, gdy parametr sygnału przyjmuje skończoną liczbę wartości następujących po sobie w czasie (z których wszystkie można ponumerować), sygnał nazywa się dyskretnym, a komunikat przesyłany za pomocą takich sygnałów nazywa się komunikatem dyskretnym. Jeśli źródło generuje komunikat ciągły (odpowiednio parametr sygnału jest ciągłą funkcją czasu), wówczas odpowiednia informacja nazywana jest ciągłą. Przykładem przekazu dyskretnego jest tekst książki, przekazem ciągłym jest mowa ludzka przekazywana za pomocą modulowanej fali dźwiękowej; parametrem sygnału w tym drugim przypadku jest ciśnienie wytwarzane przez tę falę w miejscu odbiornika – uchu ludzkim. Komunikat ciągły może być reprezentowany przez funkcję ciągłą zdefiniowaną w pewnym przedziale. Komunikat ciągły można przekształcić w komunikat dyskretny (ta procedura nazywa się próbkowaniem). Z nieskończonego zbioru wartości parametrów sygnału wybierana jest pewna liczba, która w przybliżeniu może charakteryzować pozostałe wartości. W tym celu dziedzinę definicji funkcji dzieli się na odcinki o jednakowej długości i na każdym z tych odcinków przyjmuje się wartość funkcji stałą i równą np. wartości średniej na tym odcinku. W rezultacie otrzymujemy skończony zbiór liczb. Zatem każdy ciągły komunikat można przedstawić jako dyskretny, innymi słowy jako ciąg znaków jakiegoś alfabetu. Możliwość próbkowania sygnału ciągłego z dowolną żądaną dokładnością (aby zwiększyć dokładność, wystarczy zmniejszyć krok) jest fundamentalnie ważna z punktu widzenia informatyki. Komputer jest maszyną cyfrową, tj. wewnętrzna reprezentacja zawartych w nim informacji jest dyskretna. Dyskretyzacja informacji wejściowych (jeśli jest ciągła) sprawia, że ​​nadają się one do przetwarzania komputerowego.

Pojęcie „informacji” jest jednym z podstawowych we współczesnej nauce w ogóle i podstawowym w informatyce. Informacja, obok materii i energii, uznawana jest za najważniejszą istotę świata, w którym żyjemy. Jeżeli jednak przystąpimy do formalnego zdefiniowania pojęcia „informacji”, będzie to niezwykle trudne. Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Według koncepcji K. Shannona informacja to usuwanie niepewności, tj. informacja, która powinna w takim czy innym stopniu usunąć niepewność istniejącą u konsumenta przed jej otrzymaniem i poszerzyć jego zrozumienie przedmiotu o przydatne informacje.

Jednostki ilości informacji

Zdefiniowanie pojęcia „ilość informacji” jest dość trudne. Istnieją dwa główne podejścia do rozwiązania tego problemu. Historycznie rzecz biorąc, powstały niemal jednocześnie. Pod koniec lat 40. XX wieku jeden z twórców cybernetyki, amerykański matematyk Claude Shannon, opracował probabilistyczne podejście do pomiaru ilości informacji, a prace nad stworzeniem komputerów doprowadziły do ​​podejścia „wolumetrycznego”.

Podejście probabilistyczne

Rozważmy na przykład doświadczenie polegające na rzucie uczciwą kostką N twarze. Wyniki tego eksperymentu mogą być następujące: utrata twarzy z jednym z następujących znaków: 1, 2, ..., N.

Wprowadźmy pod uwagę wielkość liczbową mierzącą niepewność - entropia(oznaczmy to N). Zgodnie z opracowaną teorią, w przypadku równie prawdopodobnej utraty każdej ze stron wielkości N I N ze sobą powiązane Wzór Hartleya

Wprowadzając jakąkolwiek wielkość, ważnym pytaniem jest, jaką jednostkę miary przyjąć. Oczywiście, H będzie równy jeden przy N= 2. Innymi słowy, za jednostkę przyjmuje się ilość informacji związaną z przeprowadzeniem eksperymentu polegającego na uzyskaniu jednego z dwóch jednakowo prawdopodobnych wyników (przykładem takiego eksperymentu byłby rzut monetą, w którym możliwe są dwa wyniki : „głowy”, „ogony”). Ta jednostka informacji nazywana jest „bitem”.

W przypadku, gdy prawdopodobieństwa Liczba Pi wyniki eksperymentu (w powyższym przykładzie rzutu kostką) nie są takie same, prawda Wzór Shannona

W przypadku równoważnego prawdopodobieństwa zdarzeń wzór Shannona zamienia się we wzór Hartleya.

Dla przykładu określimy ilość informacji związanych z wyglądem każdego znaku w wiadomościach pisanych w języku rosyjskim. Załóżmy, że alfabet rosyjski składa się z 33 liter i znaku spacji oddzielającego słowa. Według wzoru Hartleya

Jednak w słowach języka rosyjskiego (a także w słowach innych języków) różne litery występują nierównomiernie. Poniżej znajduje się tabela prawdopodobieństw częstotliwości użycia różnych znaków alfabetu rosyjskiego, uzyskana na podstawie analizy bardzo dużych tekstów.

Podejście objętościowe

W systemie liczb binarnych znaki 0 ​​i 1 nazywane są bitami (bit - od angielskiego wyrażenia Binary digiTs - cyfry binarne). W komputerze bit jest najmniejszą możliwą jednostką informacji. Ilość informacji zapisanych w postaci binarnej w pamięci komputera lub na zewnętrznym nośniku danych oblicza się po prostu na podstawie liczby znaków binarnych potrzebnych do takiego zapisu. Zwłaszcza w tym przypadku niemożliwa jest niecałkowita liczba bitów (w przeciwieństwie do podejścia probabilistycznego).

Dla ułatwienia wprowadzono większe jednostki ilości informacji niż bity. Zatem ośmioznakowe słowo binarne zawiera jeden bajt informacji. 1024 bajty tworzą kilobajt (KB), 1024 kilobajty tworzą megabajt (MB), a 1024 megabajty tworzą gigabajt (GB).

Związek między probabilistyczną i wolumetryczną ilością informacji jest niejednoznaczny. Nie każdy tekst zapisany w symbolach binarnych pozwala zmierzyć objętość informacji w sensie probabilistycznym (cybernetycznym), ale z pewnością pozwala na to w sensie wolumetrycznym. Co więcej, jeśli jakiś przekaz pozwala na mierzalność ilości informacji w obu znaczeniach, to ilość ta niekoniecznie jest zbieżna, a cybernetyczna ilość informacji nie może być większa od wolumetrycznej.

W informatyce stosowanej ilość informacji jest prawie zawsze rozumiana w sensie wolumetrycznym.

Klasyfikacja informacji

Informacje można podzielić na typy według różnych kryteriów.

Sposób percepcji: Wizualny - postrzegany przez narządy wzroku. Słuchowe - odbierane przez narządy słuchu. Dotyk - odbierany przez receptory dotykowe. Węchowy - odbierany przez receptory węchowe. Smakowe - odbierane przez kubki smakowe.

Forma przedstawienia: Tekst – przekazywany w formie symboli mających oznaczać leksemy języka. Numeryczne - w postaci liczb i znaków wskazujących działania matematyczne. Grafika - w postaci obrazów, obiektów, wykresów. Dźwięk - ustne lub nagrane przekazywanie leksemów językowych za pomocą środków słuchowych.

Przeznaczenie: Msza – zawiera trywialne informacje i operuje zestawem pojęć zrozumiałych dla większości społeczeństwa. Specjalny - zawiera określony zestaw pojęć; w przypadku użycia przekazywane są informacje, które mogą być niezrozumiałe dla większości społeczeństwa, ale są konieczne i zrozumiałe w wąskiej grupie społecznej, w której te informacje są wykorzystywane. Osobiste - zbiór informacji o osobie, który określa status społeczny i rodzaje interakcji społecznych w populacji.

Właściwości informacyjne

Jakość informacji- stopień jego zgodności z potrzebami konsumentów. Właściwości informacji są względne, gdyż zależą od potrzeb konsumenta informacji.

Obiektywizm informacji charakteryzuje się niezależnością od czyichkolwiek opinii i świadomości, a także od metod zdobywania. Bardziej obiektywna jest informacja, do której metody pozyskiwania i przetwarzania wprowadzają mniejszy element podmiotowości.

Informacje można odczytać pełny, gdy zawiera minimalny, ale wystarczający zestaw wskaźników umożliwiających podjęcie właściwej decyzji. Zarówno niekompletne, jak i zbędne informacje zmniejszają skuteczność decyzji opartych na informacjach.

Wiarygodność- dokładność informacji nie budzi wątpliwości. Obiektywna informacja jest zawsze wiarygodna, ale wiarygodna informacja może być zarówno obiektywna, jak i subiektywna. Przyczynami nierzetelności mogą być: celowe zniekształcanie (dezinformacja); niezamierzone zniekształcenie własności subiektywnej; zniekształcenia spowodowane zakłóceniami; błędy w zapisie informacji. Ogólnie rzecz biorąc, wiarygodność informacji osiąga się: poprzez wskazanie czasu wystąpienia zdarzeń, o których informacja jest przekazywana; porównanie danych uzyskanych z różnych źródeł; terminowe wykrywanie dezinformacji; z wyłączeniem zniekształconych informacji itp.

Adekwatność- stopień zgodności pomiędzy znaczeniem faktycznie otrzymanej informacji a jej oczekiwaną treścią. Na przykład zadano pytanie: „Ile palców ma dana osoba na dłoni?” „Człowiek ma pięć palców u ręki” jest odpowiedzią wiarygodną i adekwatną, „Człowiek ma dwie ręce” jest odpowiedzią wiarygodną, ​​ale niewystarczającą.

Dostępność informacji- miara możliwości uzyskania tej lub innej informacji.

Znaczenie informacji- jest to stopień zgodności informacji z bieżącym momentem.

Emocjonalność- zdolność informacji do wywoływania w ludziach różnych emocji. Z tej właściwości informacji korzystają producenci informacji medialnej. Im silniejsze wywołane emocje, tym większe prawdopodobieństwo zwrócenia uwagi i zapamiętania informacji.

Niezależnie od tego, jak ważny jest pomiar informacji, nie można do niego sprowadzić wszystkich problemów związanych z tym pojęciem. Analizując informacje o szeroko pojętym pochodzeniu społecznym, na pierwszy plan mogą wysunąć się takie właściwości, jak prawdziwość, aktualność, wartość, kompletność itp. Nie można ich oceniać w kategoriach „redukcji niepewności” (podejście probabilistyczne) ani liczby symboli (podejście wolumenowe). Zwrócenie się ku jakościowej stronie informacji dało początek innym podejściom do jej oceny. W podejściu aksjologicznym starają się wyjść od wartości, praktycznego znaczenia informacji, tj. od cech jakościowych, które są istotne w systemie społecznym. W podejściu semantycznym informacja jest rozpatrywana zarówno z punktu widzenia formy, jak i treści. W tym przypadku informacja jest powiązana z tezaurusem, tj. kompletność systematycznego zbioru danych o przedmiocie informacji. Podejścia te nie wykluczają analizy ilościowej, lecz staje się ona znacznie bardziej złożona i musi opierać się na nowoczesnych metodach statystyki matematycznej.

Koncepcja informacji

Pojęcia informacji nie można uważać jedynie za termin techniczny, interdyscyplinarny, a nawet ponaddyscyplinarny. Informacja jest podstawową kategorią filozoficzną. Dyskusje naukowców na temat filozoficznych aspektów informacji rzetelnie wykazały, że informacji nie można sprowadzić do żadnej z tych kategorii. Pojęcia i interpretacje pojawiające się na ścieżce podejść dogmatycznych okazują się zbyt częściowe, jednostronne i nie obejmują całego zakresu tego pojęcia.

Próby rozważenia kategorii informacji z punktu widzenia głównego zagadnienia filozofii doprowadziły do ​​wyłonienia się dwóch przeciwstawnych koncepcji – funkcjonalnej i atrybutywnej. „Atrybuci” kwalifikują informację jako właściwość wszystkich obiektów materialnych, tj. jako cecha materii. „Funkcjonaliści” kojarzą informację jedynie z funkcjonowaniem złożonych, samoorganizujących się systemów.

Można pokusić się o podanie filozoficznej definicji informacji poprzez wskazanie związku definiowanego pojęcia z kategoriami refleksji i działania. Informacja jest treścią obrazu powstającego w procesie refleksji. Aktywność zawarta jest w tej definicji w postaci idei tworzenia określonego obrazu w procesie odzwierciedlania określonej relacji podmiot-przedmiot. Nie jest w tym przypadku wymagane wskazanie związku informacji z materią, gdyż zarówno podmiot, jak i przedmiot procesu refleksji mogą należeć zarówno do materialnej, jak i duchowej sfery życia społecznego. Należy jednak podkreślić, że materialistyczne rozwiązanie głównego zagadnienia filozofii wymaga uznania konieczności istnienia środowiska materialnego – nośnika informacji w procesie takiej refleksji. Informację należy więc interpretować jako immanentną (wrodzoną) cechę materii, niezbędny moment jej samonapędu i samorozwoju. Kategoria ta nabiera szczególnego znaczenia w odniesieniu do najwyższych form ruchu materii – biologicznych i społecznych.

Istnieje wiele prac poświęconych fizycznej interpretacji informacji. Prace te opierają się w dużej mierze na analogii wzoru Boltzmanna, który opisuje entropię statystycznego układu cząstek materialnych, ze wzorem Hartleya. Odpowiednie materiały można znaleźć w literaturze przedstawionej na poniższej liście.

Informację należy uznać za szczególny rodzaj zasobu, co oznacza interpretację „zasobu” jako zasobu określonej wiedzy o obiektach materialnych lub energetycznych, strukturalnych lub jakichkolwiek innych cechach obiektu. W przeciwieństwie do zasobów związanych z przedmiotami materialnymi, zasoby informacyjne są niewyczerpane i wymagają znacznie odmiennych metod odtwarzania i aktualizacji niż zasoby materialne. W związku z tym poglądem kluczowe stają się następujące właściwości informacji: zapamiętywalność, przenośność, wymienialność, odtwarzalność, wymazywanie.

Podsumowując to, co zostało powiedziane, zauważamy, że naukowcy reprezentujący różne dziedziny wiedzy podejmują (choć nie kończą) wysiłki w celu zbudowania jednolitej teorii, która ma na celu sformalizowanie pojęcia informacji i procesu informacyjnego, do opisu transformacji informacji w procesach o bardzo różnym charakterze. Przepływ informacji jest istotą procesów kontrolnych, które są przejawem immanentnej aktywności materii, jej zdolności do samodzielnego poruszania się. Od czasu pojawienia się cybernetyki sterowanie rozważano w odniesieniu do wszystkich form ruchu materii, a nie tylko wyższych (biologicznych i społecznych). Wiele przejawów ruchu w układach nieożywionych - sztucznych (technicznych) i naturalnych (naturalnych) ma również wspólne cechy sterowania, chociaż bada się je w chemii, fizyce i mechanice w energetyce, a nie w informacyjnym systemie idei. Aspekty informacyjne w takich systemach stanowią przedmiot nowej nauki interdyscyplinarnej – synergetyki.

Najwyższą formą informacji przejawiającą się w zarządzaniu w systemach społecznych jest wiedza. Ta transdyscyplinarna koncepcja, szeroko stosowana w pedagogice i badaniach nad sztuczną inteligencją, pretenduje także do miana najważniejszej kategorii filozoficznej. Z filozoficznego punktu widzenia poznanie należy uznać za jeden z funkcjonalnych aspektów zarządzania. Podejście takie otwiera drogę do systematycznego zrozumienia genezy procesów poznawczych, ich podstaw i perspektyw.

Dane, informacje i wiedza

Do podstawowych pojęć stosowanych w informatyce ekonomicznej zalicza się: dane, informację i wiedzę. Pojęcia te są często używane zamiennie, jednak istnieją między nimi zasadnicze różnice.

Termin dane pochodzi od słowa dane – fakt, a informacja (informatio) oznacza wyjaśnienie, przedstawienie, czyli tzw. informacja lub wiadomość.

Dane to zbiór informacji zapisany na określonym nośniku w formie nadającej się do trwałego przechowywania, przesyłania i przetwarzania. Przekształcanie i przetwarzanie danych pozwala na uzyskanie informacji.

Informacja jest wynikiem transformacji i analizy danych. Różnica między informacją a danymi polega na tym, że dane to utrwalona informacja o zdarzeniach i zjawiskach, która jest przechowywana na określonych nośnikach, a informacja pojawia się w wyniku przetwarzania danych przy rozwiązywaniu określonych problemów. Na przykład w bazach danych przechowywane są różne dane i na określone żądanie system zarządzania bazami danych udostępnia wymagane informacje.

Istnieją inne definicje informacji, np. informacja to informacja o obiektach i zjawiskach otoczenia, ich parametrach, właściwościach i stanie, które zmniejszają stopień niepewności i niepełnej wiedzy na ich temat.

Wiedza to przetworzona informacja zarejestrowana i zweryfikowana przez praktykę, która została wykorzystana i może zostać ponownie wykorzystana przy podejmowaniu decyzji.

Wiedza to rodzaj informacji, która jest przechowywana w bazie wiedzy i odzwierciedla wiedzę specjalisty z określonej dziedziny. Wiedza to kapitał intelektualny.

Wiedza formalna może mieć formę dokumentów (norm, przepisów) regulujących podejmowanie decyzji lub podręczników, instrukcji opisujących sposób rozwiązywania problemów. Wiedza nieformalna to wiedza i doświadczenie specjalistów w określonej dziedzinie.

Należy zaznaczyć, że nie ma uniwersalnych definicji tych pojęć (dane, informacja, wiedza), są one różnie interpretowane. Decyzje podejmowane są w oparciu o otrzymane informacje i istniejącą wiedzę.

Podejmowanie decyzji to wybór najlepszej, w pewnym sensie, opcji rozwiązania spośród zestawu akceptowalnych, w oparciu o dostępne informacje. Zależność danych, informacji i wiedzy w procesie decyzyjnym przedstawiono na rysunku.

Relacja pomiędzy danymi, informacją i wiedzą w procesie decyzyjnym

Aby rozwiązać problem, przetwarzane są stałe dane w oparciu o istniejącą wiedzę, następnie otrzymane informacje są analizowane z wykorzystaniem istniejącej wiedzy. Na podstawie analizy proponowane są wszystkie możliwe rozwiązania, a w wyniku wyboru podejmowana jest jedna, w pewnym sensie najlepsza decyzja. Wyniki rozwiązania wzbogacają wiedzę.

W zależności od zakresu zastosowania informacje mogą być różne: naukowe, techniczne, zarządcze, ekonomiczne itp. W przypadku informatyki ekonomicznej interesująca jest informacja ekonomiczna.

Literatura

  1. Mohylew A.V. Warsztaty z informatyki: Proc. pomoc dla studentów wyższy podręcznik instytucje/A.V.Mohylew, N.I.Pak, E.K.Henner; wyd. E.K.Henner. - wyd. 2, skreślone. - M.: Ośrodek Wydawniczy „Akademia”, 2005. - 608 s.

Pytania:

    Pojęcie informacji.

    Pojęcia informacyjne.

    Formy przekazywania, prezentacji i rodzaje informacji.

    Właściwości informacji.

    Informacje pomiarowe. Matematyczne pojęcie informacji

    Pojęcie systemu liczbowego.

    Kodowanie binarne.

Koncepcja informacji

Obecnie pojęcie informacji jest jednym z centralnych w nauce i praktyce. I nie jest to zaskakujące. Rolę informacji w życiu człowieka intuicyjnie dostrzegano już w starożytności. „Na początku było słowo” – to myśl, która niezmiennie przenika ludzką świadomość.

Wraz z rozwojem podejścia informacyjnego, odkrywającego nowe właściwości, nowe aspekty obiektów materialnych, zjawisk i procesów społecznych, samo pojęcie informacji wyrosło z kategorii potocznych do ogólnego pojęcia naukowego, które pomimo swojej powszechności do dziś powoduje ogromną ilość kontrowersji, dyskusji i w której pojawia się wiele różnych punktów widzenia. „Ze wszystkich nauk teoria informacji i informatyka, choć cieszą się ogromną i zasłużoną popularnością” – pisze R.I. Połonnikow 1 – „i mają niezaprzeczalne sukcesy i osiągnięcia w wielu obszarach stosowanych, ale nadal pozostają na nieco ograniczonej pozycji, ponieważ ich centralne pojęcie – informacja – pozostaje ściśle określone.” Dosłownie tyle autorów piszących o informacji, ile jest definicji tego zjawiska.

Odnosząc się do etymologii słowa „informacja”, należy zauważyć, że pochodzi ono od łacińskiego „informatio”, oznaczającego nadawanie formy lub właściwości. W XIV wieku tak nazywano boskie „programowanie” – inwestycję duszy i życia w ludzkie ciało. Legenda głosi, że w XIV w. ten przywilej Boga przywłaszczył sobie rabin Lew, który stworzył w praskim getcie glinianego „robota” – Golema, który „ożywał” za każdym razem, gdy właściciel podłożył mu „program” pod język. - tekst z imieniem Boga (shem). Mniej więcej w tym samym czasie słowo „informacja” zaczęło oznaczać przekazywanie wiedzy za pośrednictwem książek. Tym samym znaczenie tego słowa stopniowo przesuwało się od pojęć „inspiracja”, „odrodzenie” na pojęcia „przesłanie”, „fabuła”, pozostając jednocześnie intuicyjne i nie wymagające precyzyjnych definicji, a tym bardziej analizy filozoficznej.

W Rosji termin „informacja” pojawił się w epoce Piotrowej, ale nie był powszechnie używany. Dopiero na początku XX wieku zaczęto go używać w dokumentach, książkach, gazetach i czasopismach i używać go w znaczeniu komunikacji, informacji, informacji o czymś.

Prawdziwie naukowe zrozumienie pojęcia informacji stało się możliwe właściwie dopiero dzięki szybkiemu rozwojowi w latach 20. ubiegłego wieku środków i systemów komunikacji, pojawieniu się informatyki i cybernetyki, co wymagało opracowania odpowiedniej wiedzy teoretycznej baza.

Historia badań nad informacją rozpoczęła się od rozważenia jej aspektu ilościowego, związanego z rozwiązywaniem stosowanych problemów komunikacyjnych, co znalazło swój wyraz w teorii amerykańskiej zaproponowanej w 1948 roku. naukowiec Claude Shannon zajmujący się matematyczną (statystyczną) teorią informacji. Zaproponowana przez niego koncepcja opierała się na idei informacji jako pewnej substancji, która istnieje w realnym świecie niezależnie od człowieka. Shannon zauważyła, że ​​„podstawową ideą teorii komunikacji jest to, że informację można uznać za coś bardzo podobnego do wielkości fizycznej, takiej jak masa lub energia”.

Pomimo ogromnego wpływu, jaki matematyczna teoria informacji wywarła na rozwój nauki, kolejne próby mechanicznego rozszerzenia jej na inne obszary wiedzy naukowej doprowadziły do ​​zrozumienia ograniczeń jej zapisów i konieczności znalezienia innych podejść do określenia istoty informacji. informacji.

I takim zasadniczo odmiennym, dodatkowym podejściem było podejście cybernetyczne, obejmujące struktury i połączenia systemów. Wraz z pojawieniem się cybernetyki jako nauki o ogólnych prawach transformacji informacji w złożonych systemach sterowania, metodach percepcji, przechowywania, przetwarzania i wykorzystywania informacji, termin „informacja” stał się koncepcją naukową, rodzajem narzędzia do badania procesów kontrolnych .

Już w 1941 roku Wiener opublikował swoją pierwszą pracę na temat analogii między pracą maszyny matematycznej a układem nerwowym żywego organizmu, a w 1948 roku - podstawowe studium „Cybernetyka, czyli sterowanie i komunikacja u zwierząt i maszyn”, oferując swoje „informacyjna wizja” cybernetyki jako nauk o sterowaniu i komunikacji w organizmach żywych, społeczeństwie i maszynach. Informacja według Wienera to „określenie treści otrzymywanych ze świata zewnętrznego w procesie naszego przystosowywania się do niego i przystosowywania się do niego naszych zmysłów”.

W przeciwieństwie do Shannon Wiener nie wierzył, że informacja, materia i energia są kategoriami tego samego rzędu. Napisał: „Mózg mechaniczny nie wydziela myśli, tak jak wątroba wydziela żółć, jak twierdzili dawni materialiści, i nie uwalnia jej w postaci energii, jak mięśnie, informacja jest informacją, a nie materią i nie energią”.

Mówiąc o powstaniu i rozwoju cybernetyki, nie można nie zauważyć, że wypracowane w ramach tej nauki podejście do badania zjawiska informacji wywarło naprawdę nieoceniony wpływ na intensyfikację badań naukowych w tym obszarze. Pod tym względem lata 60-70 XX wieku okazały się bardzo owocne dla badań naukowych z zakresu problematyki informacyjnej. To właśnie w tych latach, u zarania informatyzacji, zjawisko informacji przyciągało uwagę filozofów, fizyków, językoznawców, fizjologów, genetyków, socjologów, historyków itp. Pojęcie „informacji” zyskało popularność i wzbudziło zwiększone zainteresowanie środowiska naukowego.

Zatem powstawanie i dalszy rozwój różnych nauk o informacji, poglądach i podejściach do określania jej istoty doprowadziło do tego, że informacja wyrosła z intuicyjnej kategorii codziennej komunikacji do ogólnej kategorii naukowej, która również wymagała własnego zrozumienia filozoficznego.

Obecnie eksperci naliczają ponad 200 istniejących obecnie podejść do ustalania informacji, wśród których nie ma ani jednego, mniej lub bardziej powszechnie akceptowanego, a niektóre z nich po prostu nie wytrzymują krytyki i powodują dość ostre oceny w środowisku naukowym .

Podam tylko kilka podstawowych definicji informacji:

    Informacja to wiedza przekazana przez kogoś innego lub zdobyta w wyniku własnych badań lub studiów,

    Informacja to informacja zawarta w tej wiadomości i uważana za przedmiot przesyłania, przechowywania i przetwarzania,

    Informacja to obiektywna treść powiązania pomiędzy oddziałującymi ze sobą obiektami materialnymi, przejawiająca się zmianami stanów tych obiektów,

    Informacja to aktualne dane o zmiennych w określonym obszarze działalności, usystematyzowane informacje dotyczące głównych związków przyczynowych zawarte w wiedzy jako koncepcji bardziej ogólnej klasy, w stosunku do której informacja jest podporządkowana,

    Informacja to każda wiadomość lub przekazywanie informacji o czymś, co nie było wcześniej znane.

    Informacja to zapamiętany wybór jednej opcji spośród kilku możliwych i równych.

Najbardziej ogólna definicja ma miejsce w filozofii, gdzie informacja jest rozumiana jako odbicie obiektywnego świata, wyrażone w postaci sygnałów i znaków.

    Informacja jest odzwierciedleniem w umysłach ludzi obiektywnych związków przyczynowo-skutkowych w otaczającym nas realnym świecie,

    Informacja jest treścią procesów refleksji.

Pojęcie informacji zakłada obecność dwóch obiektów: źródła i konsumenta. Aby zrozumieć istotę informacji, należy wziąć pod uwagę inne kategorie filozoficzne, takie jak ruch, przestrzeń, czas, a także problematykę prymatu materii i wtórności wiedzy. Kolejnym bardzo istotnym warunkiem zrozumienia istoty informacji i prawidłowego rozwiązywania problemów informacyjno-poznawczych, do których należy większość prawnych, jest stosowanie zasady adekwatnej reprezentacji wyświetlanego obiektu przez obiekt go eksponujący.

Przez informację rozumie się zatem informacje o otaczającym świecie i zachodzących w nim procesach, postrzegane przez człowieka lub specjalne urządzenia zapewniające celowe działanie. Ponadto informacja o przedmiocie poznania może być nie tylko dostrzeżona przez podmiot poznający czy urządzenie techniczne (po odpowiednim przetworzeniu), ale także niejako oddzielona od jej pierwotnego źródła – przedstawienia przedmiotu poznania.

Wynika z tego, że można go przenieść w przestrzeń, zapisać w czasie, przenieść na inny podmiot poznawczy lub urządzenie techniczne (na przykład komputer) i poddać innym operacjom, których całość nazywa się procesy informacyjne. Ich skład i kolejność ustalane są każdorazowo indywidualnie. Najogólniej procesy informacyjne obejmują tworzenie, syntezę, transmisję, odbiór, gromadzenie, przechowywanie, transformację, systematyzację, analizę, selekcję, rozpowszechnianie informacji i jej prezentację w przyjaznej dla użytkownika formie.

Z pojęciem informacji kojarzone są pojęcia takie jak sygnał, wiadomość i dane.

Sygnały odzwierciedlają cechy fizyczne różnych procesów i obiektów, a poprzez znaki człowiek postrzega obiektywny świat. Zatem, Sygnał reprezentuje dowolny proces, który przenosi informację.

Należy zauważyć, że w literaturze spotyka się niekiedy definicje, które opierają się na porównaniu pojęcia informacji z pojęciem komunikatu. W tym przypadku w definicji powstaje „błędne koło”: informacja jest komunikatem, a komunikat jest informacją. Definicja taka w wielu przypadkach może być uzasadniona, mimo że ma charakter tautologiczny. Jednak teoria informacji powinna iść dalej i definiować informację w bardziej znaczący sposób. Istnieją również istotne różnice pomiędzy pojęciami informacja i dane. Dane to ilości, ich relacje, wyrażenia, fakty, których przekształcenie i przetwarzanie umożliwia wydobycie informacji, tj. wiedza o konkretnym procesie lub zjawisku. Mówiąc dokładniej dane - są to fakty i idee przedstawione w sformalizowanej formie, która umożliwia przekazywanie lub przetwarzanie tych faktów i idei przy użyciu pewnego procesu lub odpowiednich środków technicznych.

Wiadomość Są to informacje wyrażone w określonej formie i przeznaczone do przekazania. Przykładem komunikatu jest tekst telegramu, mowa mówiącego, odczyty urządzenia pomiarowego, polecenia sterujące itp. Komunikat jest więc formą przedstawienia informacji.

Dane - Ten informacje przedstawione w sformalizowanej formie i przeznaczone do przetwarzania za pomocą środków technicznych, takich jak komputer. Te. Dane są surowcem do pozyskiwania informacji.

Skoro już zrozumieliśmy ogólne pojęcia, przyjrzyjmy się, jak ustawodawca podchodzi do pojęcia „informacji”.

Ogólnie rzecz biorąc, założycielem odrębnego kierunku informacyjnego i prawnego w orzecznictwie jest A.B. Vengerov. Nie podał jasnej definicji informacji, ale wymienił pewne cechy (właściwości) informacji, które są istotne dla prawa. Należą do nich w szczególności:

a) pewna niezależność informacyjna w stosunku do swojego przewoźnika; b) możliwość wielokrotnego wykorzystania tych samych informacji; c) jego niewyczerpalność podczas konsumpcji; d) przechowywanie przekazywanych informacji u podmiotu transmitującego; e) zdolność do zachowywania, agregowania, integrowania, akumulowania; f) pewność ilościowa; g) konsystencja 2.

W pracach nad bezpieczeństwem informacji stosuje się koncepcję: informacja jest wynikiem odbicia i przetworzenia w ludzkim umyśle różnorodności otaczającego świata, jest to informacja o przedmiotach wokół człowieka, zjawiskach naturalnych, działaniach innych ludzi itp. 3

Należy zauważyć, że w ostatnich latach nastąpił aktywny rozwój legislacji w sferze informacyjnej i kształtowanie się prawa informacyjnego jako niezależnego przemysłu. Podstawą prawną regulującą stosunki informacyjne są szereg artykułów Konstytucji Federacji Rosyjskiej (w szczególności art. 23, 24, 29, 44). Ponadto przez 11 lat (do 2006 r.) Obowiązywała ustawa federalna z dnia 20 lutego 1995 r. N 24-FZ „O informacji, informatyzacji i ochronie informacji” (zmieniona ustawą federalną z dnia 10 stycznia 2003 r. N 615- Ustawa federalna (zwana dalej ustawą informacyjną z 1995 r.)).

Prawo to regulowało relacje powstające w tworzeniu i korzystaniu z zasobów informacyjnych w oparciu o tworzenie, gromadzenie, przetwarzanie, gromadzenie, przechowywanie, wyszukiwanie, rozpowszechnianie i udostępnianie konsumentowi udokumentowanych informacji; tworzenie i wykorzystanie technologii informatycznych oraz środków ich wspierania; ochrona informacji, prawa podmiotów uczestniczących w procesach informacyjnych i informatyzacji.

W dniu 27 lipca 2006 r. Przyjęto ustawę federalną nr 149-FZ „O informacjach, technologiach informacyjnych i ochronie informacji” (zwaną dalej ustawą federalną), która reguluje stosunki w zakresie wykonywania prawa do wyszukiwania, otrzymywania, przesyłania , wytwarzania i rozpowszechniania informacji, z wykorzystaniem technologii informatycznych, a także zapewnienia ochrony informacji, z wyjątkiem stosunków w zakresie ochrony wyników działalności intelektualnej i równoważnych środków indywidualizacji.

Opracowanie nowego podstawowego aktu ustawodawczego wynika z konieczności ujednolicenia, zarówno pod względem koncepcyjnym, jak i merytorycznym, zasad i reguł współdziałania w tym obszarze, wyeliminowania szeregu luk w nim oraz dostosowania ustawodawstwa zbliżenie Federacji Rosyjskiej do międzynarodowej praktyki regulowania stosunków informacyjnych.

Artykuł 2 tej ustawy wprowadza szereg podstawowych pojęć.

Centralną koncepcją prawodawstwa dotyczącego informacji, technologii informatycznych i ochrony informacji jest koncepcja „informacji”. W dotychczasowej ustawie o informacji z 1995 r. przez informację rozumiano informacje o osobach, przedmiotach, faktach, zdarzeniach, zjawiskach i procesach, niezależnie od formy ich przekazania. Nowa ustawa federalna przedstawia definicję informacji w bardziej ogólnej formie. Informacja to każda informacja (wiadomość, dane) niezależnie od formy, w jakiej jest przekazana.

Patrząc nieco w przyszłość, należy zauważyć, że art. 5 ustawy określa status informacji jako przedmiotu stosunków prawnych. „Informacje mogą być przedmiotem stosunków publicznych, cywilnych i innych stosunków prawnych. Informacje mogą być swobodnie wykorzystywane przez każdą osobę i przekazywane przez jedną osobę drugiej osobie, chyba że prawo federalne ustanawia ograniczenia w dostępie do informacji lub inne wymagania dotyczące procedury ich dostarczania. lub dystrybucji.”

Kontynuujmy dyskusję na temat pojęć wprowadzonych w Ustawie. Artykuł 2 wprowadza w ustawodawstwie rosyjskim nową definicję pojęcia „technologia informacyjna”, która łączy w sobie procesy, metody wyszukiwania, gromadzenia, przechowywania, przetwarzania, udostępniania, rozpowszechniania informacji oraz metody ich realizacji. Technologia informacyjna jest ważna dla rozwoju, ponieważ biorąc pod uwagę znaczenie informacji, tak jest określa się poziom rozwoju tych technologii potencjał dalszego postępowego ruchu we wszystkich obszarach społeczeństwa.

Technologia to zespół wiedzy naukowo-inżynierskiej realizowany w technikach pracy, zbiorach materiałowych, technicznych, energetycznych, pracowniczych czynników produkcji, sposobach ich łączenia w celu stworzenia produktu lub usługi spełniającej określone wymagania. Technologia jest zatem nierozerwalnie związana z mechanizacją procesu produkcyjnego lub nieprodukcyjnego, przede wszystkim zarządzania. Technologie zarządzania opierają się na wykorzystaniu komputerów i technologii telekomunikacyjnych.

Zgodnie z definicją przyjętą przez UNESCO technologia informacyjna to zespół powiązanych ze sobą dyscyplin naukowych, technologicznych i inżynieryjnych, które badają metody efektywnej organizacji pracy osób zajmujących się przetwarzaniem i przechowywaniem informacji; technologia komputerowa oraz metody organizacji i interakcji z ludźmi i urządzeniami produkcyjnymi, ich praktyczne zastosowania, a także związane z tym problemy społeczne, ekonomiczne i kulturalne. Same technologie informacyjne wymagają kompleksowego szkolenia, dużych kosztów początkowych i zaawansowanych technologii. Ich wprowadzanie należy rozpocząć od stworzenia oprogramowania matematycznego i ukształtowania przepływów informacji w specjalistycznych systemach szkoleniowych.

Zatem technologia informacyjna to zespół obiektów, działań i zasad związanych z przygotowaniem, przetwarzaniem i dostarczaniem informacji w komunikacji osobistej, masowej i przemysłowej, a także wszystkimi technologiami i branżami, które integralnie wspierają wymienione procesy.

Do głównych rodzajów technologii informatycznych zalicza się:

Wysokie inteligentne technologie informacyjne, które reprezentują generację rozwiązań technicznych realizujących modelowanie sytuacyjne, umożliwiające identyfikację powiązań elementów, ich dynamiki oraz identyfikację obiektywnych wzorców otoczenia;

Wspierające technologie informacyjne - ukierunkowane na zapewnienie realizacji określonych funkcji (księgowość i statystyka, prowadzenie systemu kadrowego, obieg dokumentów, prowadzenie transakcji finansowych, systemy zarządzania strategicznego itp.);

Komunikacyjne technologie informacyjne – mające na celu zapewnienie rozwoju telekomunikacji i jej systemów 4

W artykule zawarto także doprecyzowaną definicję pojęcia „system informatyczny”. W obowiązującej wcześniej ustawie o informacji z 1995 r. przez system informacyjny rozumie się uporządkowany organizacyjnie zbiór dokumentów (zestawy dokumentów) i technologie informacyjne, w tym wykorzystanie technologii komputerowej i środków komunikacji realizujących procesy informacyjne.

System informacyjny to system technologiczny reprezentujący zgodność środków technicznych, oprogramowania i innych, które strukturalnie i funkcjonalnie łączą kilka rodzajów procesów informacyjnych i zapewniają usługi informacyjne.

Znaki systemu informacyjnego:

Wykonywanie jednej lub kilku funkcji związanych z informacją;

Jedność systemu (obecność wspólnej bazy plików, wspólnych standardów i protokołów, ujednolicone zarządzanie);

Możliwość komponowania i dekompozycji obiektów systemowych podczas wykonywania określonych funkcji (wyciągi z ustaw, zakładki - wszystko w 1 pliku).

Podstawowe wymagania dla systemu informatycznego:

Efektywność;

Jakość działania (czyli jego dokładność, bezpieczeństwo, zgodność ze standardami);

Niezawodność (to znaczy te progi, w których system zawodzi pod względem jakości informacji, czasu dostępu, wydajności);)

Bezpieczeństwo.

Szybki rozwój technologii informacyjno-telekomunikacyjnych wymusił konieczność zapisania w prawie takiego pojęcia, jak „sieć informacyjna i telekomunikacyjna”. Jest to system technologiczny przeznaczony do przesyłania informacji liniami komunikacyjnymi, dostępnymi za pomocą technologii komputerowej.

Zgodnie z art. 2 ustawy federalnej z dnia 7 lipca 2003 r. N 126-FZ „O komunikacji” (zmienionej w dniu 27 lipca 2006 r.) pojęcie „linii komunikacyjnych” odnosi się do linii przesyłowych, obwodów fizycznych i struktur komunikacyjnych liniowo-kablowych.

Najogólniej sieć informacyjno-telekomunikacyjna to sposób przekazywania informacji o otaczającym świecie, jego obiektach, procesach i zjawiskach, zobiektywizowanych w postaci umożliwiającej ich maszynowe przetworzenie (odszyfrowanie). Przykładowo Internet jest rodzajem sieci informacyjno-telekomunikacyjnych.

Internet z technicznego punktu widzenia jest największą siecią telekomunikacyjną, utworzoną z połączenia ponad dziesięciu tysięcy pięćset sieci telekomunikacyjnych różnego typu. Ujednolicenie to było możliwe dzięki zastosowaniu protokołu międzysieciowego TCP/IP, który pełni rolę swoistego tłumacza standardów przy transmisji danych pomiędzy różnymi typami sieci telekomunikacyjnych.

Internet jako globalna przestrzeń informacyjna nie uznaje granic państwowych i jest nie tylko najskuteczniejszym środkiem dostępu do zasobów informacyjnych zgromadzonych przez ludzkość, ale staje się także środkiem masowego rozpowszechniania informacji. Funkcjonowanie sieci jest potężnym czynnikiem rozwoju i wykorzystania zaawansowanych technologii.

Z drugiej strony korzystanie z Internetu wiąże się z możliwością niekontrolowanego rozpowszechniania nieautoryzowanych informacji, przedostawania się do systemów kontroli i naruszania praw człowieka, co niewątpliwie wymaga szczególnej uwagi kwestii bezpieczeństwa informacji.

Szybki rozwój Internetu w cywilizowanym świecie wyprzedza proces tworzenia i udoskonalania regulacyjnych aktów prawnych niezbędnych do regulowania pojawiających się problemów. Wraz z rozwojem Internetu w ostatnich latach, problemy prawne Sieci stają się coraz bardziej istotne na tle zauważalnej transformacji w świecie podejść do ich rozliczania: od nacisku na samoregulację do rygorystycznych regulacji prawnych.

Główne problemy wymagające regulacji legislacyjnych w Rosji w związku z rozwojem Internetu praktycznie nie różnią się od problemów w innych rozwiniętych krajach świata:

1) zapewnienie bezpłatnego połączenia z Internetem i wymiany informacji on-line;

3) ochrona danych osobowych, w szczególności danych zbieranych w toku działalności operatorów sieci (w tym adresów, numerów telefonów i innych danych osobowych abonentów lub kupujących w systemie „handlu elektronicznego”);

4) podłączenie organów administracji rządowej do Internetu i udostępnianie obywatelom informacji o działalności tych organów;

5) zapobieganie rozpowszechnianiu informacji obraźliwych, wulgarnych, nawoływań do nawoływania do nienawiści narodowościowej, rasowej, religijnej itp.;

6) elektroniczne zarządzanie dokumentami, podpis elektroniczny, potwierdzanie autentyczności informacji w produktach informacyjnych, sposoby przeglądania i przekazywania informacji;

7) handel elektroniczny;

8) bezpieczeństwo informacji: wirusy komputerowe, nieuprawniony dostęp do informacji, włamania do serwerów i sieci, niszczenie i zastępowanie informacji;

9) stosowanie środków ochrony kryptograficznej;

10) jurysdykcja: ustawodawstwo którego państwa należy stosować w celu regulowania działań podejmowanych w Internecie.

Z analizy obowiązującego ustawodawstwa rosyjskiego wynika, że ​​kwestie regulacji prawnych związanych z funkcjonowaniem i rozwojem systemu internetowego w Rosji tworzą rozbudowane ramy regulacyjne, obejmujące ponad 50 ustaw federalnych na poziomie samym federalnym, nie mówiąc już o licznych regulacyjnych aktach prawnych z zakresu Prezydenta i Rządu Federacji Rosyjskiej. Zakres tych aktów prawnych jest niezwykle szeroki, a ich interpretacja z punktu widzenia specyfiki stosunków prawnych wynikających ze stosowania nowoczesnych technologii informacyjnych jest trudna, zwłaszcza że w momencie opracowywania tych przepisów nie przewidywały odpowiednich możliwości. Nie da się ukryć, że ten obszar stosunków prawnych jest także zupełną nowością dla sądów.

Ustawa wprowadza także szereg innych pojęć. W ten sposób ustawa federalna dostosowuje aparat pojęciowy i mechanizmy regulacyjne do praktyki korzystania z technologii informatycznych, określa status prawny różnych kategorii informacji, ustanawia przepisy w zakresie tworzenia i obsługi systemów informatycznych, ogólne wymagania dotyczące użytkowania sieci informacyjnych i telekomunikacyjnych oraz zasady regulacji stosunków publicznych związanych z wykorzystaniem informacji.

Ustanawia się zasadę wolności wyszukiwania, otrzymywania, przekazywania, tworzenia i rozpowszechniania informacji w jakikolwiek legalny sposób. W takim przypadku ograniczenie dostępu do informacji może ustanowić wyłącznie prawo federalne.

Ustawa zawiera przepisy mające na celu ochronę przed nieuczciwym wykorzystaniem lub nadużywaniem środków rozpowszechniania informacji, w ramach których narzuca się użytkownikom niepotrzebne informacje. W szczególności informacja musi zawierać wiarygodne informacje o jej właścicielu lub innej osobie ją rozpowszechniającej, w formie i ilości umożliwiającej identyfikację tej osoby. W przypadku stosowania środków rozpowszechniania informacji umożliwiających ustalenie jej odbiorców, w tym przesyłek pocztowych i wiadomości elektronicznych, nadawca ma obowiązek zapewnić odbiorcy informacji możliwość odmowy jej przekazania.

Podstawowe zasady i sposoby ochrony praw do informacji, czyli samej informacji, określa się poprzez podjęcie podstawowych środków prawnych, organizacyjnych i technicznych (oprogramowanie i sprzęt). Prawa właściciela informacji zawartych w bazach danych systemów informatycznych podlegają ochronie niezależnie od praw autorskich i innych praw do tych baz danych.

W zależności od kategorii dostępu do informacji dzieli się go na publicznie dostępny oraz ograniczony przez prawo federalne (informacja zastrzeżona). Ustala się wykaz informacji, do których nie można ograniczyć dostępu (np. o działalności organów administracji rządowej i wykorzystaniu środków budżetowych), a także informacji udostępnianych bezpłatnie.

W literaturze prawniczej operują głównie pojęciami otwartości, otwartości, jawności i przejrzystości, wraz z którymi używany jest termin „przejrzystość”. W ustawodawstwie branżowym pojęcia te są stosowane jako zasady podstawowe. Nowy termin „przejrzystość”, zapożyczony z praktyki zagranicznej, jest ściśle powiązany z jawnością, otwartością, dostępem do informacji, ale w istocie najbliższy jest terminom przejrzystość i dostępność.

Zakaz jest żądania od obywatela (osoby fizycznej) udzielania informacji dotyczących jego życia prywatnego, w tym informacji stanowiących tajemnicę osobistą lub rodzinną, oraz otrzymywania takich informacji wbrew woli obywatela (osoby fizycznej). Wyjątki można zrobić jedynie w przypadkach przewidzianych przez prawo federalne.

Co dziwne, w tekście tej ustawy nie pojawiają się pewne pojęcia stosowane w obowiązującej wcześniej ustawie o informacjach z 1995 r. Takimi pojęciami są „informatyzacja”, „procesy informacyjne”, „zasoby informacyjne”, „informacje o obywatelach (dane osobowe) ”, „oznacza dostarczanie zautomatyzowanych systemów informatycznych”.

Brak w nowej ustawie federalnej pojęć „informatyzacja” i „zasoby informacyjne” wydaje się przeoczeniem, gdyż Pojęcia te są już szeroko stosowane nie tylko w legislacyjnych i innych regulacyjnych aktach prawnych (na przykład w Kodeksie celnym Federacji Rosyjskiej itp.), Ale są również mocno zakorzenione w dziedzinie egzekwowania prawodawstwa informacyjnego.

Twórcy tej ustawy federalnej, wykluczając z tekstu pojęcie „informatyzacji”, wyszli z faktu, że w zasadzie ma ona prawo istnieć, ale nie ma na nią miejsca w tekstach prawnych, ponieważ Można w nim umieszczać różne treści. To właśnie ze względu na niejednoznaczność użycie go w tekście poprzedniej ustawy federalnej, zwłaszcza w jej tytule, nie było ich zdaniem najbardziej udanym pomysłem roboczym. Ponadto twórcy nowej ustawy federalnej powołują się na brak tego terminu w ustawodawstwie zagranicznym.

Trudno jednak zgodzić się z tym stanowiskiem, gdyż W okresie obowiązywania ustawy o informacjach z 1995 r. Przyjęto szereg aktów prawnych mających na celu tworzenie i wykorzystanie zasobów informacyjnych oraz określenie norm szeregu skodyfikowanych aktów (Kodeks karny Federacji Rosyjskiej, Kodeks wykroczeń administracyjnych Federacji Rosyjskiej z dnia 30 grudnia 2001 r. N 195-FZ (zmieniony 26 lipca 2006 r.)). W wielu przepisach zastosowano terminologię z poprzedniej ustawy Prawo informacyjne z 1995 roku. Ponadto w ustawodawstwie zagranicznym funkcjonuje na przykład takie pojęcie jak „komputeryzacja”. Wydaje się zatem, że termin „informatyzacja” nie wymagał usunięcia z rosyjskiego prawodawstwa informacyjnego.

Wyłączenie z ustawy definicji „zasobów informacyjnych” również było moim zdaniem bezpodstawne. Ponadto, na przykład, w tej samej ustawie w części 9 art. 14 zawiera wskazanie, że informacje zawarte w państwowych systemach informacyjnych oraz inne informacje i dokumenty, którymi dysponują organy państwowe, stanowią państwowy zasób informacyjny.

Pragnę zauważyć, że brak jasności niektórych pojęć, a także czasami bezpodstawne zmiany w definicjach pojęć stosowanych w legislacji informacyjnej nie przyczyniają się do poprawy regulacji prawnych w sferze informacyjnej.

Brak definicji pojęcia „danych osobowych” tłumaczy się faktem, że niemal jednocześnie z nową ustawą federalną przyjęto ustawę federalną nr 152-FZ z dnia 27 lipca 2006 r. „O danych osobowych”, która zapewnia ochrona praw i wolności człowieka i obywatela przy przetwarzaniu jego danych osobowych, w tym ochrona prawa do prywatności, tajemnicy osobistej i rodzinnej.

Kończąc rozważania na ten temat, należy zauważyć, że znaczna liczba terminów związanych z pojęciem informacji zawarta jest w tak specjalistycznych przepisach, jak „O komunikacji”, „O tajemnicy państwowej”, „O wywiadzie zagranicznym” itp.