Концепція інформації. Дивитись що таке "Інформація" в інших словниках Що таке інформація визначення

Особливості інформаціїполягають у тому, що вона не є речовиною чи енергією, хоча відображає дійсність у вигляді розподілу матерії та енергії у часі та у просторі та процесів їх перерозподілу. Однак інформація цевластивість лише живих організмів, здатних робити фіксування інформації. Джерелом інформаціїДля живих організмів є органи почуттів.

Інформація не матеріальнахоча для її існування потрібні (спочатку – білки в тілі організму). Як правило, чим складніше об'єкт матеріального світу або процес, тим більше інформації він у собі несе і, навпаки, чим складніше організм, який збирає інформацію, тим більше варіантів його поведінки може відповідати одній і тій самій отриманій інформації.

Поняття та види інформації

Знання, як отримана та збережена інформаціяпро навколишні предмети та явища, є життєво важливими для всіх живих організмів. Людина, на відміну інших живих організмів, може використовувати спеціальні прилади, які дозволяють розширити пізнання, які неможливо отримати за рахунок органів чуття. Крім того людина може використовувати різноманітні матеріальні носії інформації, за допомогою яких можна передати інформаціюрешті людей, які особисто не були присутні при зборі інформації, але в загальному випадку, зацікавлені у володінні нею.

Визначення інформації

Існує визначення поняття інформаціявід К.Шеннона, згідно з якою:

визначення інформації- це знята невизначеність, тобто. відомості, які мають зняти тією чи іншою мірою існуючу у споживача до отримання невизначеності, розширити його розуміння об'єкта корисними відомостями.

Життя постіндустріальну епоху накладає свої відбитки на свідомість людини. Поняття «інформація» у наш час стало таким же ключовим, як вода та повітря. Щоб зрозуміти всю важливість цього явища, потрібно розібратися в тлумаченні терміна.

Що таке інформація?

Багатофункціональність терміну породила безліч його тлумачень. Так, залежно від сфери використання, інформація – це:

Згідно з Федеральним законом Російської Федерації «Про інформацію, інформаційні технології та захист інформації» (2006 р.), це поняття тлумачиться як «відомості (повідомлення) незалежно від форми їх подання».

Отже, інформація - це дані, подані у різних видах. Цей термін вважається ключовим у роботі журналіста.

Що таке актуальна інформація?

Ще однією відмінністю даного поняття є його властивості. До атрибутів інформації відносять її якість, кількість, новизну, цінність, достовірність, складність та здатність компресуватися. Кожен із цих показників можна виміряти. Також важлива властивість поняття «інформація» – це її актуальність.

Не всі дані відповідатимуть цьому показнику. Витоки слова «актуальність» простежуються латинською мовою, де воно тлумачилося як «сучасний», «важливий тепер», «злободенний». Особливість цієї якості полягає в тому, що вона може бути втрачена з появою свіжіших даних. Цей процес відбувається одночасно і повністю чи поступово та частинами.

Актуальна інформація - це дані, що перебувають у стані, що відповідає дійсності. Будучи застарілими, вони втрачають свою цінність.

Пошук інформації

Сучасність є безмежним океаном даних, в якому щодня потрібно знаходити те, що задовольнятиме наші запити. З метою структуризації процесу пошуку інформації навіть було створено окрему науку. Її батьком вважається американське навчання Кельвін Мауерс. Інформаційний пошук, згідно з визначенням дослідника, – це процес виявлення у невизначеній кількості документів тих, які зможуть задовольнити наші інформаційні потреби, тобто містять необхідні дані.

Алгоритм дій включає операції зі збору, обробці та надання запитуваних відомостей. Для ефективного пошуку інформації слід виконувати наступний план:

  • сформулювати запит (відомості, які хочемо знайти);
  • визначити можливі джерела необхідних даних;
  • вибрати потрібні матеріали;
  • ознайомитися з отриманим масивом знань та оцінити виконану роботу.

Даний алгоритм здатний полегшити освітній процес та підготовку до написання наукових статей. Він був створений шляхом усвідомлення автором того, що інформація – це безмежний простір навколо нас. І вилучення необхідних даних можливе лише за умови систематизації своїх зусиль.

Збір та зберігання інформації

Залежно від поставлених цілей дані та відомості можна піддавати різним операціям. Збір та зберігання - одні з них.

Робота з інформацією можлива лише після ретельного пошуку. Цей процес має назву збір даних, тобто накопичення з метою забезпечення достатньої кількості подальшої обробки. Даний етап роботи з інформацією вважається одним із найважливіших, адже від нього залежать якість та актуальність даних, з якими доведеться мати справу в подальшому.

Фази збору відомостей:

  • первинне сприйняття;
  • розробка класифікації одержаних даних;
  • кодування об'єктів;
  • реєстрація результатів.

Наступним етапом у роботі з інформацією є забезпечення її безпеки для подальшого користування.

Зберігання даних - це спосіб налагодження їх обігу у просторі та часі. Цей процес залежить від носія – диск, картина, фотографія, книга тощо. Термін зберігання також диференціюється: шкільний щоденник потрібно зберігати протягом навчального року, а квиток у метро – лише під час поїздки.

Інформація - це те, що існує лише на певному носії. Тому процеси збирання та зберігання можна вважати ключовими у роботі з нею.

Способи передачі інформації

Циркуляція даних - це незворотний процес, з яким стикаємося повсюдно. Можливість передавати інформацію від людини до людини – запорука еволюції всієї цивілізації. Це є переміщення знаків та відомостей у просторі з метою організації доступу до них інших суб'єктів.

Засоби інформації - це її носії, тобто усе, що може бути зберігання даних.

Схема передачі відомостей складається з таких ланок: джерело, канал зв'язку та одержувач (реципієнт). Використання з цією метою технічних засобів передбачає попереднє кодування повідомлення у зручну для передавача форму та подальше його розшифрування. У тому числі можна назвати телеграф, телефон, телевізор, радіо, Інтернет.

Найпотужнішим засобом передачі даних у всі часи вважалися медіа. Вони діють на величезних територіях та відіграють ключову роль у формуванні громадської думки.

Захист інформації

Хоча відомості про навколишній світ є відкритими для ознайомлення, деякі з них мають особливий статус та закриті для сторонніх осіб. До них відносять таємниці державні, комерційні та судові дані про нові винаходи до публікації офіційного повідомлення про них, а також персональну інформацію про події життя суб'єкта, що дозволяють ідентифікувати його особистість.

  • визначення даних, які вважаються конфіденційними;
  • обмеження доступу до них шляхом встановлення спеціального порядку звернення та контролю за дотриманням цього порядку;
  • облік тих, хто отримав доступ до конфіденційної інформації;
  • нанесення на матеріальні носії грифу "Комерційна таємниця".

Все це – необхідні заходи безпеки. Дотримуватися їх - отже, попередити величезну кількість злочинів, махінацій та врятувати життя багатьох людей.

Як бачимо, дослідження суті терміна «інформація» - це процес, що включає роботу в багатьох сферах і полягає в оцінці якостей і способів обробки відомостей, що відображають факти навколишнього світу.

Потяг інформації досить неоднозначний. Незважаючи на те, що воно існує вже досить давно, в даний час вчені досі не можуть дати точне визначення цього терміну і говорять про те, що його необхідно розглядати у вигляді невизначеного первинного поняття.

Вконтакте

Однокласники

У сучасних підручниках з інформатики можна знайти різні тлумачення цього терміна: інформація є відомостями чи знаннями про щось; інформація є знаннями, які можна передавати, збирати, зберігати, використовувати, обробляти; інформація в інформатиці є базовим поняттям науки, оскільки інформатика це наука про інформацію. В інформатиці вивчення цього поняття відбувається за допомогою головного інструмента - комп'ютера.

Давайте докладніше ознайомимося з тим, що являє собою дане поняття в інформатиці.

Визначення поняття

Якщо перекласти сам термін «інформація» з латинської, він означатиме «виклад» чи «зведення». В даний час наука досі шукає загальні властивості та закономірності, які є властивими інформації, однак, дані в інформатиці є деякимиінтуїтивним поняттям, яке несе різні смисли у різних сферах діяльності людини.

Незважаючи на те, що в даний час існує величезна кількість визначень даного терміна, необхідно виділити найбільш загальні та зрозумілі з них. Дані є відображенням навколишнього світу шляхом якихось знаків і сигналів. Цінність повідомлення, яку несуть відомості, полягає у нових знаннях, що містяться в цьому повідомленні.

Типи інформації

Вони можуть відрізнятися залежно від способу сприйняття. Дані можуть сприйматися за допомогою наших почуттів. Способи отримання інформації:

  • Органи слуху;
  • Зір;
  • Дотик;
  • Смак;
  • Нюхання.

Крім цього, відомості поділяють і щодо їхньої форми. За формою вони можуть бути:

  • Текстовими;
  • Числовими;
  • графічними;
  • Звуковими.

Сюди також можна зарахувати і відеоінформацію.

Поняття даного терміна в інформатиці має низку властивостей. До таких властивостей належать такі:

Інформація є особливим видом ресурсів, який має властивості, характерні саме для нього. До таких властивостей належать такі:

  • Стирання;
  • Запам'ятовуваність;
  • Перетворюваність;
  • Передача;
  • Відтворюваність.

Розглянемо кожну з цих властивостей докладніше.

Носії та сигнали

Інформація буде у разі пов'язані з матеріальним носієм. Такими носіями можуть бути:

  • Будь-які матеріальні предмети у вигляді каменю, паперу тощо;
  • Різні хвилі: звук, радіохвиля, світло тощо;
  • Речовини у різному стані: температура, концентрація молекул у рідкому розчині тощо.

Сигналом називається спосіб передачі. Сигнал є фізичним процесом, який має інформаційне значення. Сигнали можуть бути дискретними чи безперервними. Дискретний сигнал може набувати лише кінцевого числа значень у кінцевому числі моментів часу.

Аналоговим сигналом називається той сигнал, який безперервно змінюється за амплітудою та часом. Аналогові сигнали, як правило, використовуються під час телефонного зв'язку, радіомовлення та телебачення.

Сигнали, які містять текстову або символічну інформацію, є дискретними.

Інформатика є сферою людської діяльності, яка пов'язується з процесами перетворення даних за допомогою комп'ютерів або інших обчислювальних апаратів. Інформатику називають часто сукупністю певних методів перетворення інформації. Також нею називається прикладна дисципліна чи галузь виробництва.

В інформатику, як правило, включаються технічні засоби, математичні методи, програмні продукти, типові алгоритми та моделі. Говорячи про технічні засоби, сюди можна віднести комп'ютери та різноманітні периферійні пристрої у вигляді моніторів, клавіатур, принтерів, модемів. До складу технічних засобів входять лінії зв'язку, засоби оргтехніки. Таким чином, можна сказати, що це ті матеріальні ресурси, які здатні забезпечити перетворення відомостей, при цьому головну роль у списку відіграватиме лише комп'ютер.

Нині інформатика відрізняється досить стрімким розвитком. Вже сьогодні наука про дані має низку нових напрямів: програмування, штучний інтелект, кібернетика, інформаційні системи, теоретична інформація та обчислювальна техніка.

Саме поняття інформації в інформатиці є досить новим у лексиконі людини. Зміст цього поняттяможна назвати нечітким та розмитим. Інформатика зв'язується з даними та обробкою їх на комп'ютерах. На поверхневому рівні може бути все зрозуміло, але якщо придивитися краще, то питання стає дуже складним, ніж здається насправді.

Так як комп'ютери в даний час дуже поширені, а людство переживає так званий інформаційний бум, ази інформатики повинні розуміти всі сучасні індивіди, які хоч трохи хочуть крокувати в ногу з часом. Саме ці фактори стали основою того, що викладання інформатики було введено до шкільної програми. Тому в даний час кожен школяр отримує можливість освоїти цю цікаву, нову та необхідну науку.

Додати сайт до закладок

Що таке інформація?

Інформація в загальноприйнятому визначенні - це відомості, повідомлення, що передаються від одного суб'єкта іншому усним, письмовим або будь-яким іншим способом (наприклад, за допомогою умовних сигналів, з використанням технічних засобів і т.д.), а також процес передачі або отримання цих відомостей чи інформаційний обмін.

Інформація для кожної людини є джерелом енергії. Важливо те, як людина нею користується.

Інше ж, узагальнююче визначення інформації як універсальної властивості матерії, менш відоме. Інформація - це
нематеріальна категорія Всесвіту, закодована в матеріальних носіях та при розкодуванні та адекватній реактивності, що заперечує ймовірність у статистичних процесах переходу від невпорядкованості до порядку; або, як заведено говорити у фізиці, інформація - це ентропія зі зворотним знаком, або негативна ентропія.

Однак, як нематеріальна категорія інформація з руйнуванням носія або зникає, або перекодується. Нова інформація виникає лише у випадкових процесах створення нового носія. Випадковий процес - це сукупність випадкових подій, ймовірність яких надзвичайно мала, і що менше ймовірність створення нового носія, то вище якість відтвореної інформації. З такими процесами працює природний відбір.

Відбір несуперечливих аргументів чи синтез - лише відомості, повідомлення, тимчасова сукупність знань суб'єкта (суб'єктів). Вр е менна у сенсі довічна. З руйнуванням носія зникає вся інформація - як при народженні, так і придбана в онтогенезі. Батьківська інформація, що знову виникла, може бути збережена тільки з народженням нового носія.

Чим більший обсяг сукупних знань суб'єкта, набутих в онтогенезі (тимчасових), тим більше виникає у нього точок дотику з невідомим, тим ширше асоціативне поле уяви, тим глибше емоційне напруження, тим вища ймовірність декодування об'єктивної інформації з носія, що обстежується. Звідси очевидно, що на даному етапі розвитку соціуму доступ до об'єктивної інформації, або, точніше, інформації про об'єктивну реальність для нас дуже обмежений. Таким чином, можна говорити про інформацію та інформацію як про два взаємовкладені поняття.

Ентропія - це глибоко конкретна фізична величина з розмірністю кал/град, що завжди більше нуля, тобто. позитивна, що фізично розуміється як закон переходу тепла від гарячішого тіла до холодного. Але, як і для поняття «інформація», терміном ентропія визначається ще одне поняття, а саме - вираз її через зв'язок зі статистичною концепцією переходу від невпорядкованості до порядку, що так само мало вивчено, як і поняття «інформація», хоч і виражається найпростішою кількісним зв'язком, відкритим ще Больцманом і Гіббсом в 1872 р.:

Ентропія=k·lgD, де:

  • D є кількісний показник цієї невпорядкованості атомно-молекулярного руху в речовині;
  • а k - постійна Больцмана = 1,3807 10 -23 Дж/К.

Виходячи з визначення поняття Інформації як ентропії зі зворотним знаком, очевидно, існують у Всесвіті некеровані, точніше, самоврядні процеси, що дозволяють отримувати Інформацію без розкодування, або, що те саме, процеси, що дозволяють здійснювати зворотний перехід тепла від холодного тіла до гарячішого. Такі самоврядні процеси відбуваються постійно довкола нас, це самовідтворення життя, тобто. Вилучення інформації без розкодування при відтворенні собі подібного.

З погляду фізика очевидно, що живі організми, як і всі у Всесвіті, що остигає, безперервно змінюють свою ентропію, або виробляють невпорядкованість і таким чином наближаються до стану мінімальної ентропії, до стану «абсолютного нуля» температури навколишнього середовища, що є « теплову смерть» організму, причому швидкість зміни ентропії приблизно дорівнює швидкості охолодження чайника - в залежності від температури середовища та маси тіла організму. Вони можуть уникнути «остигання», тобто. залишатися живими, тільки постійно виймаючи тепло з навколишнього середовища або негативну ентропію, як звичайний побутовий холодильник, споживаючи електроенергію, витягує тепло в замкнутому обсязі холоднішого тіла. А життя, споживаючи енергію, що міститься в продуктах харчування, підтримує в собі температуру гомеостазу (+36,6ºС для виду homo erectus). Бактерії в кінці живильного ланцюга вилучають негативну ентропію з бульйону, переводячи його в розчинні сполуки, якими живляться рослини, витягуючи позитивну ентропію Сонця.

Іншими словами, процеси обміну в організмі ведуть до зростання ентропії, а саморегулювання цих процесів чи гомеостаз зменшують її. І чим ближче до нуля збалансованість позитивної та негативної ентропії, тим вища виживання організму, тим вища якість природного відбору. Негативна ентропія - це те, що організми витягують із навколишнього середовища (різницю між температурою середовища та температурою власного тіла) для підтримки свого гомеостазу (стабільності внутрішнього середовища) та своєї комфортності. Життя у Всесвіті, з погляду фізики, - це постійне, безперервне вилучення ентропії зі зворотним знаком.

Життя - це лише адаптація до умов довкілля, спочатку іманентної інформації як фундаментальної властивості матерії. Носієм такої інформації є двоспіральна, замкнута (по Мебіусу) стабільна ядерна РНК як мікромодель Всесвіту, занесена на цю планету з льодом якогось астероїда, коли на ньому ще не було атмосфери.

Ось як розглядає проблему К.Ю. Єськов у своїй «Історії Землі та Життя на ній»: «Наш підхід до проблеми життя на Землі буде суто функціональним, і в його рамках нам слід прийняти одне аксіоматичне твердження: еволюція біосфери та складових її екосистем йде загалом у бік виникнення все більш досконалих , тобто. стійких та економних (що витягують негативну ентропію з мінімальними витратами), кругообігів речовини та енергії. Удосконалення циклів спрямоване на те, щоб мінімізувати безповоротні втрати біологічних систем: екосистема прагне перешкоджати вимиванню мікроелементів та захороненню неокисленого вуглецю, переводити воду з поверхневого стоку до підземного тощо. Тому із загальнопланетарної точки зору життя слід розглядати як спосіб стабілізації існуючих на планеті геохімічних циклів».

Однак справжня суть цієї концепції полягає зовсім не в романтичних міжпланетних мандрівках «зародків життя», а в тому, що життя як таке просто є однією з фундаментальних властивостей матерії, і питання про походження життя стоїть у тому ряду, що і, наприклад, питання про походження гравітації (але це зовсім не означає, що ми перестанемо задаватися цими питаннями, тим більше що ці явища – «одна з фундаментальних властивостей матерії»).

«У цьому плані попередником Ейгена є біохімік Г. Кастлер (1966), який проаналізував поведінку системи нуклеїнових кислот у рамках теорії інформації. Він дійшов висновку, що нова інформація виникає у системі, тільки якщо у ній відбувається випадковий вибір («методом тику») з наступним запам'ятовуванням його результатів, а чи не цілеспрямований відбір найкращого варианта. В останньому випадку можна говорити лише про реалізацію тієї інформації, що закладена в систему спочатку, тобто про виділення вже наявної інформації з «шуму» (або її декодування).

Сама можливість виникнення новизни (тобто. акту творчості) визначається властивостями інформації як такої: як було показано А.А. Ляпуновим (1965), неї не поширюються закони збереження, тобто. інформація, на відміну від матерії та енергії, може бути заново створена (і, відповідно, може бути і безповоротно втрачена.)»

Тут необхідно виділити дві складові єдиного процесу виникнення інформації за законами природного відбору: створення перешкод з необхідними та достатніми умовами для зменшення ймовірності події та її повторюваності для «випадкового» вибору, або в термінах теорії інформації – виділення вже наявної інформації в екосистемі із «шуму» . Випадок і випадок – слова однокорінні, і випадковість будь-якого народження – це, перш за все, виділення з перешкод вже наявної в екосистемі корисної інформації або «цілеспрямований відбір найкращого варіанту». "На те й щука в морі, щоб карась не дрімав". Але ця корисна інформація не є успадкованою (див. нижче мутація та граничні умови).

Що ж є критерієм якості Природного Відбору чи яка інформація є корисною?

Природний Відбір не має жодного іншого інструменту для вдосконалення своїх творінь, крім статистичного кидання кісток або «методу тику», де за кожним кидком - народження і смерть, і чим вища частота зміни поколінь (або кількість кидків народжень-смертів за умовну одиницю часу, що визначається масою тіла, точніше, енергоємністю, витраченою на його вирощування), тим вища швидкість обміну генофонду, тим більше переваг проявляється у міжвидовій боротьбі, тим ширша видова екологічна ніша і вища якість Природного Відбору.

Однак швидкість обміну генофонду можна збільшити не тільки частотою зміни поколінь, але і за рахунок кількості особин в одному посліді (наприклад, риби, комахи).

Тому критерій якості у Природного Відбору найпримітивніший, найжорсткіший і тому найнадійніший: збільшення біомаси популяції. Чим більша біомаса популяції, тим вища частота зміни поколінь або кидків народжень-смертів, тим вища якість Відбору.

Однак цей статистичний закон відбору суперечить закону мінімізації енергоємності на вирощування окремої «експериментальної» особини, щоб не дарма вона спустошувала свою екологічну нішу. Це протиріччя дозволяється тим самим відбором, але тільки на рівні насіння. Для рослин, наприклад, немає іншого способу вдосконалення виду. Звідси важливий наслідок.

Для досягнення найвищої ефективності механізму відбору на рівні насіння у ссавців неминучою є адаптація за ознакою моногамії - парної сім'ї, що вже давно зрозуміли примати, вовки, слони. Щоб загибель мільйонів сперматозоїдів з однієї порції еякуляту по дорозі до маткового яйця не була безцільною, в організмі самки повинен бути, повинен бути механізм, що консервує адаптаційну інформацію, зібрану самцем у боротьбі з перешкодами.

Тому у самця відбувається практично триденне оновлення насіннєвого матеріалу, що накопичує інформацію про зміни навколишнього середовища (перешкоди, що виникають) і реакції організму самця на них, а в яєчниках самки відбувається консервація цієї інформації після кожного коїтусу і передача її кожному яйцевому зародку при овуляції. Справа в тому, що в жіночому організмі від народження закладено обмежену, непоправну кількість яйцевих зародків. Порахуйте число місячних місяців у проміжку років між 13 і 45-49, і ви отримаєте цю кількість яйцевих зародків: приблизно 350-400 шт. Як у бур'янів. У чоловічому організмі генерація еякуляту не вичерпується до останньої години.

Звідси дуже важливий наслідок. Це заборона на позашлюбні зв'язки підвищення продуктивності парної сім'ї та підвищення якості її потомства. Це і є добір корисної інформації. Жіночий організм при блуд накопичує спотворення, що вносяться чужорідним еякулятом, і фізіологічні та психічні, а чоловічий - вхолосту витрачає свій генний матеріал і накопичену життєво необхідну корисну інформацію.

Отже, чим більше насіння в разовій порції еякуляту при коїтусі і чим частіше потреба коїтусу, тим вищою є якість Природного Відбору. У ссавців відбір починається під час руху продуктів еякуляту по маточних трубах, де заради «просперіті» одного гине «паблісити» великої держави, приблизно 250 млн. І перевага перед іншими має той вигляд або те сімейство, яке має більш досконалий механізм для природного відбору на рівні насіння.

Цей механізм у нас і наших еволюційних предків пришвидшений у дванадцять разів у порівнянні з іншими тваринами та приматами, для парування, які очікують сезонної підготовки кормової бази для вигодовування потомства. І платимо ми за це вдосконалення дорогою ціною – прискореним зношуванням жіночого організму та його дітородною функцією. 40-45 років - та клімакс. Це в сучасності, а для предкової мавпи ще менше. І це за очікуваної середньостатистичної тривалості біологічної активності для середньої ваги 75-80 кг приблизно 130 років.

Яким чином могло з'явитися сімейство приматів, у яких терміни овуляції маткового яйця стали залежними не від сонячного річного циклу, а від місячного, місячного, як і за яких умов стала можливою така трансформація найскладнішого механізму відтворення – для нас таємниця. Але це не божественне провидіння.

Єдиний правдоподібний здогад - всесезонна незалежність кормової бази чотирирукої вузьконосої мавпи, що освоїла плодовий ярус тропічного лісу. За цією ж сезонною незалежністю плодової кормової бази стоїть і відсутність у нашому організмі механізму вироблення аскорбінової кислоти (і людського інтерферону). Усі тварини вміють виробляти вітамін С (і не вміють – інтерферон). Все, крім людини, рожевого тропічного шпака та морської свинки. А навіщо був потрібен нашій предковій мавпі цей механізм, якщо аскорбінова кислота всесезонно надходить ззовні з кормом і стимулює вироблення найдосконалішого антибіотика - інтерферону?

Але чому все-таки дванадцятимісячний менструальний цикл і завжди в одній і тій же фазі Місяця - повний місяць? Це може означати, що «приливна» дія супутника нашої планети колись була сильнішою, ніж зараз. І ця «приливна» дія Місяця визначила адаптаційний вплив на дітородну функцію якогось виду мавп, які стали нашими предками.

Отже, єдиним критерієм якості природного відбору, закладеним у геномі, є збільшення біомаси популяції. І підвищення його якості можливе тільки при зменшенні ймовірності події реплікації нового організму або наявності перешкод, необхідних і достатніх умов зменшення ймовірності реплікації.

Наприклад, комаха земляний рак, капустянка, капустянка спарюється тільки в червневий повний місяць (літнього сонцестояння) і тільки в польоті; кроти спаровуються на поверхні, лосось, щоб відкидати ікру, повинен увійти в гирло тільки своєї річки, прорватися через щільний заслін «їдків» по ​​дорозі до витоків і, відкинувшись, впасти гниючим тілом - кормом для свого потомства, що несе генетичну пам'ять про витоки своєї річки ; чоловік у своїй єдиній жінці шукає свою матір, а жінка у чоловікові – свого батька; всі самці проходять через обряд шлюбного бою, жереба, весілля = долі: порівн. «наречений» і ще безліч прикладів… Особливо обдаровані діти на Русі відзначені приказкою: «Ні в матір, ні в батька, а в проїжджого молодця».

Однак зовсім не обов'язково, що надмірна творчість завжди призведе до виділення корисної інформації з перешкод – появі потомства.

Здається, що А.А. Ляпунов тут не помиляється. Ця основна властивість інформації лежить в основі законів біогенезу планети та Природного Відбору, і якби це було не так, то простіше було б назвати Інформацію богом. Інформація з руйнуванням носія зникає або перекодується, але може бути створена з поєднання випадкових процесів, і необов'язково біохімічних, а й суто фізичних, де випадковість - це подія, ймовірність якої визначається кількісним показником невпорядкованості атомно-молекулярного руху в речовині D із закону Больцмана-Гіббса . Це для фізичних процесів.

Для біологічних процесів, з якими працює Природний Відбір, показником невпорядкованості є кількість сперматозоїдів, витрачених на один оборот покоління однієї пари, поділена на загальну кількість особин, народжених і тих, що вижили від тієї пари. Для виду homo erectus оптимальний вміст сперматозоїдів у порції еякуляту - 180-250 млн. Зміст менше 150 млн називається олігоспермією, при якій зачаття виключено.

Якщо ви помножите цю кількість сперматозоїдів на середню кількість спарювань однієї пари за термін дітородної функції самки і розділіть отримане на чисельність покоління, що вижило статевозрілого, то зворотна величина цього числа покаже ймовірність виділення корисної інформації з «шуму» екосистеми для цієї пари. Це для ідеальної пари, що виключає розпусту, що знижує якість інформації.

Таким чином, антропогенез слід розглядати як постійне підвищення якості іманентної інформації, закладеної в геномі предкової форми примату. І лише виду homo erectus частота зміни поколінь в 12 разів вище, ніж в інших видів, тобто. жіночі регули і є головною і єдиною антропоморфною ознакою, що визначає швидкість та якість антропогенезу.

Єдино важливі, справжні цінності в нашому житті, її зміст та зміст – цнотливість жінки, честь чоловіка, їхня спільна любов до своїх дітей. Це сім'я. Взаємна повага між сім'ями та до людей похилого віку. Це Батьківщина. Любов до Батьківщини та захист її. Це держава.

Бережіть жінку, свою, одну половину! Цнотливість жінки - основа державності. Тільки цнотлива мати може виростити будівельника та захисника Батьківщини.

Інформація, як і життя, є фундаментальною властивістю матерії, і може бути втрачено якесь індивідуальне життя з певним обсягом інформації-відомостей, але не життя як іманентна властивість Всесвіту.

Можна обчислити кількісний показник невпорядкованості для одиниці маси будь-якої речовини, що визначає випадковість - числову величину ймовірності подій у системі, за якої можливе виникнення нової інформації.

lgD = Ентропія/k

Або за запропонованою методикою обчислити можливість виникнення нової інформації для Природного Відбору. І що нижча ця ймовірність, то вище якість Природного Відбору, то вища якість виділеної інформації.

Друга складова єдиного процесу виникнення інформації - переповнення екосистеми перешкодами, у яких виділення інформації за критерієм збільшення біомаси стає неможливим, що веде до загибелі екосистеми та виродження виду або до мутагенного вибуху. Тут, мабуть, необхідно таки запровадити дуже важливі граничні умови. Власне, їх потрібно було запровадити вже давно, і вони малися на увазі в попередніх міркуваннях, т.к. Природний відбір працює з новою інформацією тільки за її стрибкоподібних змін.

Відбір не закріплює якісні результати при безперервних змінах спадкової інформації, тому що вони не успадковуються як видові ознаки при виділенні інформації з шуму, тому всі спроби виявити «проміжні форми» між видами приречені на провал. Безперервні зміни спадкової інформації всередині виду - цей спадковий «шум» системи при «цілеспрямованому відборі найкращого варіанта» .

Гуго де Фріз (Hugo de Vries, 1848-1935) - ботанік з Голландії на помилковому прикладі Ослінника Ламарка (Oenothera lamarckiana), розвиваючи дарвінівську теорію походження видів, довів, що новий вид - не результат поступового накопичення безперервних змін фенотипу згідно з синтетичною теорією. СТЕ), а результат стрибкоподібних змін (протягом кількох поколінь), що перетворюють один вид на інший.

«Вираз стрибкоподібні означає в цьому випадку не те, що зміни дуже значні, а лише факт уривчастості, оскільки між незміненими особами та небагатьма зміненими немає проміжних форм. Де Фріз назвав це мутацією. Тут істотна саме уривчастість. Фізику вона нагадує квантову теорію - там теж немає проміжних щаблів між двома сусідніми енергетичними рівнями атома. Фізик був би схильний до мутаційної теорії де Фриза фігурально назвати квантовою теорією біології. Пізніше ми побачимо, що це значно більше ніж фігуральний вираз. Своїм походженням мутації справді завдячують “квантовим стрибкам” у генній молекулі. Але квантової теорії було лише два роки, коли де Фріз вперше опублікував своє відкриття (1902 р.). Не дивно, що знадобилося життя цілого покоління, щоб встановити тісний зв'язок між ними!<…>

У світлі сучасних знань механізм спадковості тісно пов'язаний із самою основою квантової теорії і, навіть більше, спирається на неї. Ця теорія була сформульована Максом Планком в 1900 р. Сучасна генетика починається з "відкриття" Менделівської роботи де Фрізом, Корренсом і Чермаком (1900 р.) і з роботи де Фріза про мутації (1901-1903 рр.). Таким чином, час народження двох великих теорій майже збігається, і не дивно, що обидві мали досягти певної міри зрілості, перш ніж між ними міг виникнути зв'язок.

Для квантової теорії знадобилося понад чверть століття, як у 1926-1927 гг. В. Гайтлер та Ф. Лондон сформулювали основні положення квантової теорії хімічних зв'язків. Гайтлер-лондонівська теорія включає найбільш тонкі і складні поняття пізнішої квантової теорії, званої квантової механікою, або хвильової механікою. Виклад її без застосування вищої математики майже неможливий або зажадав би принаймні невеликої книги. Але тепер, коли вся робота вже виконана, стає можливим встановити зв'язок між квантовими переходами та мутаціями» (Шредінгер Ервін).

Єдиним слабким місцем мутаційної теорії де Фриза є вирішення питання: як пара «калек-виродків», «білі ворони» з новими ознаками (і чи невідомо, чи корисними) можуть знайти один одного в оновленій екологічній ніші для закріплення у фенотипі мутаційних змін? Половина відповіді знаходиться у самому питанні. Саме зміни умов екосистеми, що не накопичилися, неможливість подолання перешкод є підставою мутаційного вибуху або стрибкоподібного виникнення нової інформації. Далі набувають чинності статистичні закони Природного Відбору.

Отже, підсумуємо. У найбільш широкому розумінні ми можемо поставити знак рівності між поняттями "інформація" та "життя". Організм живий, поки його мозок може витягувати і переробляти-декодувати інформацію. І єдиний спосіб існування мозку - це вилучення, декодування інформації та вироблення впливів, що управляють.

І не якийсь абстрактний, чийсь «нічийний» організм, а наш організм.

Мозок до останньої секунди біологічної активності пручається небуттю, переробляє інформацію і видає керуючі дії. Звідси байки про потойбічне безсмертя, основа всіх культів. У тварин відсутня необхідність культових поховань, а отже, й уявлення про потойбічне життя.

І тільки людський мозок, опираючись небуттю та оберігаючи інформацію, здатний на окультне божевілля та марнотратство некрополів. І якщо саме ваш спермій прорвався крізь міріади поколінь і мільярди смертей до життя, будьте гідні цих зусиль у своїй земній юдолі протягом всього лише 25-30 тис. днів. Пам'ятайте, що, як і для всіх інших тварин, у нас немає нічого. Засновники всіх конфесій та їх апологети, оформляючи в шаленство натовпу нашу вроджену релігійність (совість), це дуже добре знали та знають. В основу всіх конфесій покладено догмат антропоцентризму - "вінця творіння" "за образом і подобою" і "раю" по той бік. Зрівнявши «вінець» із «тварями», Церква впаде. І кожен, хто знає, що немає відплати «на тому світі», зовсім інакше цінує кожен день і кожен вчинок «на цьому». І любить та ненавидить.

Енергетична доцільність надмірної творчості організму визначається необхідністю постійного підживлення мозку його єдиною їжею - інформацією, тому енерговитрати на творчість, навіть таке як читання, завжди надмірні. І вершиною творчих зусиль є повна самовіддача, самопожертва, самозречення пари - основа будь-якої родючості та запорука здоров'я народженого носія виділеної інформації.

Також завжди надмірні енерговитрати на творчість у разі виникнення нової інформації у будь-якій фізичній системі.

А тепер поставимо питання, що є тимчасова сукупність знань суб'єкта і що є об'єктивна Інформація, яким сміттям нас напихають засоби інформації для мас і які зусилля робить організм для виживання, фільтруючи з цього сміття життєво важливу інформацію (чи не тому ми так катастрофічно швидко старіємо? ), який організм можна вважати мертвим, навіть якщо він ще ворушиться?

Але в життя, людського життя, є ще завдання, за яке вона відповідальна: вилучення негативної ентропії та зменшення соціальної невпорядкованості на рівні популяції.

Імовірність - математична категорія, що говорить про закономірності виникнення випадкових явищ. Для замкнутої системи стає рівною нулю при розкодуванні нею інформації з навколишніх носіїв. Або більш категорично інформація – це заперечення ймовірності.

Випадковість - це закономірність вищого порядку, чи подія, ймовірність якого визначається кількісним показником D неупорядкованості атомно-молекулярного руху на речовині із закону Больцмана-Гиббса чи кількісним показником невпорядкованості будь-якої іншої системи - біологічної, соціальної, космічної.

Матерія - об'єктивна реальність, відображена в Інформації про її властивості, при цьому міра об'єктивності матерії не залежить від реальності відчуттів суб'єкта. З погляду фізика матерія складається з речовини та поля. Речовина - це просторові атомно-молекулярні грати, занурені в поле на дев'ять десятих свого обсягу (в середньому, залежно від щільності та агрегатного стану речовини, найбільша щільність речовини в його рідкій фазі).

Свідомість - це здатність суб'єкта до відображення об'єктивної реальності, матерії, на основі виниклої при народженні Інформації, декодованої інформації при онтогенезі і емоцій, що виникли при цьому - індивідуальних психічних реакцій.

Звуковий стереотип - міцно сформовані у свідомості суб'єкта асоціативні зв'язок між виниклим чином і сказаним звуком.

Суспільна свідомість - сумарний вектор індивідуальних інтересів (російською особистою користю) у соціумі.

Совість (лат. RELIGIO) - генетично успадкована соціальна категорія, що визначає стійкий стан психіки ізольованого суб'єкта в соціумі, при якому він так оцінює свою поведінку, ніби він перебував під пильним, оцінюючим поглядом інших суб'єктів. А так само і мотивація поведінки неізольованого суб'єкта серед собі подібних інших суб'єктів соціуму.

Свобода - див. Совість

Потреба, злидні. Мудрець сказав: «Дрібниці життя – це різні події між народженням та смертю». Доповнимо його. Потреба – це наші народження та смерть між векторами індивідуальної користі, під Владою права присвоєння громадській власності.

Самовладання, незворушність, холоднокровність - модель поведінки особистості, яка реалізує волю керівників структур Влади (див.), або це байдужість абсолютного егоїста. Людина з совістю, що має свободу вибору, завжди емоційна.

Інформація - це відомості про що-небудь

Поняття та види інформації, передача та обробка, пошук та зберігання інформації

Розгорнути зміст

Згорнути зміст

Інформація - це визначення

Інформація - цебудь-які відомості, що приймаються та передаються, що зберігаються різними джерелами. Інформація - це вся сукупність відомостей про навколишній світ, про всілякі процеси, що протікають у ньому, які можуть бути сприйняті живими організмами, електронними машинами та іншими інформаційними системами.

- цеЗначні відомості про що-небудь, коли форма їх уявлення також є інформацією, тобто має функцію форматування відповідно до своєї природи.

Інформація - цевсе те, чим можуть бути доповнені наші знання та припущення.

Інформація - цевідомості про щось, незалежно від форми їх уявлення.

Інформація - цепсихічний продукт будь-якого психофізичного організму, вироблений ним під час використання будь-якого засобу, званого засобом інформації.

Інформація - цевідомості, що сприймаються людиною та (або) спец. пристроями як відображення фактів матеріального чи духовного світу у процесі комунікації.

Інформація - цедані, організовані таким чином, що мають сенс для людини, яка має з ними справу.

Інформація - цезначення, що вкладається людиною в дані на підставі відомих угод, що використовуються для їх подання.


Інформація - цевідомості, роз'яснення, виклад.

Інформація - цебудь-які дані чи відомості, які будь-кого цікавлять.

Інформація - цевідомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які сприймають інформаційні системи (живі організми, керуючі машини та ін.) у процесі життєдіяльності та роботи.

Те саме інформаційне повідомлення (стаття в газеті, оголошення, лист, телеграма, довідка, розповідь, креслення, радіопередача тощо) може містити різну кількість інформації для різних людей - залежно від їх попередніх знань, від рівня розуміння цього повідомлення та інтересу до нього.

У випадках, коли говорять про автоматизовану роботу з інформацією за допомогою будь-яких технічних пристроїв, цікавляться змістом повідомлення, а тим, скільки символів це повідомлення містить.

Стосовно комп'ютерної обробки даних під інформацією розуміють деяку послідовність символічних позначень (літер, цифр, закодованих графічних образів і звуків і т.п.), несучу смислове навантаження і представлену у зрозумілому комп'ютері вигляді. Кожен новий символ у такій послідовності символів збільшує інформаційний обсяг повідомлення.


Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання це поняття описується своїм специфічним набором ознак. Наприклад, поняття «інформація» є базовим у курсі інформатики, і неможливо дати його визначення через інші, більш «прості» поняття (так само, в геометрії, наприклад, неможливо висловити зміст базових понять «точка», «пряма», «площина») через простіші поняття).


p align="justify"> Зміст основних, базових понять в будь-якій науці має бути пояснено на прикладах або виявлено шляхом їх зіставлення зі змістом інших понять. Що стосується поняттям «інформація» проблема визначення ще складніша, оскільки є загальнонауковим поняттям. Дане поняття використовується в різних науках (інформатиці, кібернетиці, біології, фізиці та ін.), причому у кожній науці поняття «інформація» пов'язане з різними системами понять.


Поняття інформації

У сучасній науці розглядаються два види інформації:

Об'єктивна (первинна) інформація - властивість матеріальних об'єктів і явищ (процесів) породжувати різноманіття станів, які у вигляді взаємодій (фундаментальні взаємодії) передаються іншим об'єктам і зберігаються у тому структурі.

Суб'єктивна (семантична, смислова, вторинна) інформація – смисловий зміст об'єктивної інформації про об'єкти та процеси матеріального світу, сформований свідомістю людини за допомогою смислових образів (слів, образів та відчуттів) та зафіксований на якомусь матеріальному носії.


У побутовому сенсі інформація - відомості про навколишній світ і процеси, що протікають в ньому, сприймаються людиною або спеціальним пристроєм.

Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання, це поняття описується своїм специфічним набором ознак. Відповідно до концепції До. Шеннона, інформація - це знята невизначеність, тобто. відомості, які мають зняти тією чи іншою мірою існуючу у споживача до отримання невизначеності, розширити його розуміння об'єкта корисними відомостями.


З точки зору Грегорі Бетона елементарна одиниця інформації це "небайдужа відмінність" або дієва відмінність для якоїсь більшої системи, що сприймає. Ті відмінності, які сприймаються, він називає " потенційними " , а сприйняті - " дієвими " . "Інформація складається з небайдужих відмінностей» (с) "Будь-яке сприйняття інформації з необхідністю є отриманням відомостей про відмінність». З погляду інформатики, інформація має низку фундаментальних властивостей: новизна, актуальність, достовірність, об'єктивність, повнота, цінність та інших. Аналізом інформації займається, передусім, наука логіка. Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття інформації розглядалося ще античними філософами.

До початку промислової революції визначення суті інформації залишалося прерогативою переважно філософів. Далі розглядати питання теорії інформації стала на той час наука кібернетика.

Іноді для того, щоб осягнути суть якогось поняття, корисно аналізувати значення слова, яким це поняття позначається. Прояснення внутрішньої форми слова та вивчення історії його вживання може пролити несподіване світло на його зміст, що затьмарюється звичним "технологічним" використанням цього слова та сучасними конотаціями.

Слово інформація увійшло російську мову в Петровську епоху. Вперше фіксується в "Духовному регламенті" 1721 р. у значенні "подання, поняття про що-л.". (У європейських мовах воно закріпилося раніше – близько XIV ст.)

Виходячи з цієї етимології, інформацією можна вважати будь-яку значущу зміну форми або, іншими словами, будь-які матеріально зафіксовані сліди, утворені взаємодією предметів або сил і які розуміються. Інформація, таким чином, це перетворена форма енергії. Носієм інформації є знак, а способом її існування – тлумачення: виявлення значення знака чи послідовності знаків.

Значенням може бути реконструйована по знаку подія, що спричинило його виникнення (у разі "природних" і мимовільних знаків, таких, як сліди, докази та ін.), або повідомлення (у разі умовних знаків, властивих сфері мови). Саме другий різновид знаків становить тіло людської культури, яка, згідно з одним з визначень, є "сукупністю інформації, що не спадково передається".

Повідомлення можуть містити інформацію про факти або інтерпретацію фактів (від лат. interpretatio, тлумачення, переклад).

Живе істота отримує інформацію з допомогою органів чуття, і навіть роздуми чи інтуїції. Обмін інформацією між суб'єктами є спілкування чи комунікація (від лат. communicatio, повідомлення, передача, похідне своєю чергою від лат. communico, робити спільним, повідомляти, розмовляти, з'єднувати).

З практичної точки зору інформація завжди подається у вигляді повідомлення. Інформаційне повідомлення пов'язане з джерелом повідомлення, одержувачем повідомлення та каналом зв'язку.


Повертаючись до латинської етимології слова інформація, спробуємо відповісти питанням, чому саме надається тут форма.

Вочевидь, що, по-перше, певному сенсу, який, будучи спочатку безформним і невираженим, існує лише потенційно і має бути "побудований", щоб стати сприйманим і переданим.

По-друге, людському розуму, який виховується мислити структурно та ясно. По-третє, суспільству, яке саме завдяки тому, що його члени поділяють ці смисли та спільно їх використовують, набуває єдності та функціональності.

Інформація як виражений розумний сенс є знання, яке може зберігатися, передаватися і бути основою породження іншого знання. Форми консервації знання (історична пам'ять) різноманітні: від міфів, літописів та пірамід до бібліотек, музеїв та комп'ютерних баз даних.

Інформація - відомості про навколишній світ, про процеси, що протікають в ньому, які сприймають живі організми, керуючі машини та інші інформаційні системи.

Слово "інформація" латинське. За довге життя його значення зазнавало еволюції, то розширюючи, то гранично звужуючи свої межі. Спочатку під словом "інформація" мали на увазі: "подання", "поняття", потім-"відомості", "передача повідомлень".


В останні роки вчені вирішили, що звичайне (усі прийняте) значення слова «інформація» надто еластично, розпливчасто, і дали йому таке значення: «міра визначеності у повідомленні».

Теорію інформації викликали життя потреби практики. Її виникнення пов'язують із роботою Клода Шеннона «Математична теорія зв'язку», виданої 1946г. Основи теорії інформації спираються на результати, отримані багатьма вченими. До другої половини XX століття земна куля гула від інформації, що передається, що біжить по телефонних і телеграфних кабелях і радіоканалах. Пізніше з'явилися електронні обчислювальні машини – переробники інформації. А для того часу основним завданням теорії інформації було насамперед підвищення ефективності функціонування систем зв'язку. Складність при проектуванні та експлуатації засобів, систем та каналів зв'язку в тому, що конструктору та інженеру недостатньо вирішити завдання з фізичних та енергетичних позицій. З цих точок зору система може бути найдосконалішою та економічною. Але важливо ще при створенні передавальних систем звернути увагу на те, яка кількість інформації пройде через цю систему. Адже інформацію можна виміряти кількісно, ​​підрахувати. І чинять при подібних обчисленнях звичайнісіньким шляхом: абстрагуються від сенсу повідомлення, як відмовляються від конкретності в звичних всім нам арифметичних діях (як від складання двох яблук і трьох яблук переходять до складання чисел взагалі: 2+3).


Вчені заявили, що вони «цілком ігнорували людську оцінку інформації». Послідовному ряду зі 100 літер, наприклад, вони приписують певне значення інформації, не звертаючи уваги, чи ця інформація має сенс і чи має, у свою чергу, сенс практичне застосування. Кількісний підхід – найбільш розроблена гілка теорії інформації. Відповідно до цього визначення сукупність 100 літер - фраза зі 100 літер із газети, п'єси Шекспіра або теореми Ейнштейна - має в точності однакову кількість інформації.


Таке визначення кількості інформації є надзвичайно корисним і практичним. Воно точно відповідає завданню інженера зв'язку, який повинен передати всю інформацію, що міститься в поданій телеграмі, незалежно від цінності цієї інформації для адресата. Канал зв'язку бездушний. Передавальної системи важливо одне: передати потрібну кількість інформації за певний час. Як же обчислити кількість інформації у конкретному повідомленні?

Оцінка кількості інформації ґрунтується на законах теорії ймовірностей, точніше, визначається через ймовірність подій. Це зрозуміло. Повідомлення має цінність, несе інформацію лише тоді, коли ми дізнаємося з нього про результат події, що має випадковий характер, коли вона певною мірою несподівано. Адже повідомлення про вже відоме жодної інформації не містить. Тобто. якщо вам, припустимо, хтось зателефонує і скаже: «Днем буває світло, а вночі темно», то таке повідомлення вас здивує лише безглуздістю висловлювання очевидного та всім відомого, а не новиною, яку воно містить. Інша річ, наприклад, результат забігу на стрибках. Хто прийде першим? Вихід тут важко передбачити. Чим більше подія, що цікавить нас, має випадкових результатів, тим цінніше повідомлення про його результат, тим більше інформації. Повідомлення про подію, яка має лише два однаково можливі результати, містить одну одиницю інформації, яку називають бітом. Вибір одиниці інформації не випадковий. Він пов'язаний із найбільш поширеним двійковим способом її кодування при передачі та обробці. Спробуємо хоча б у спрощеному вигляді уявити той загальний принцип кількісної оцінки інформації, що є наріжним каменем всієї теорії інформації.


Ми вже знаємо, що кількість інформації залежить від ймовірностей тих чи інших наслідків події. Якщо подія, як кажуть вчені, має два рівноймовірні результати, це означає, що ймовірність кожного результату дорівнює 1/2. Такою є ймовірність випадання «орла» або «решки» при киданні монети. Якщо подія має три рівноймовірні результати, то ймовірність кожного дорівнює 1/3. Зауважте, сума ймовірностей всіх результатів завжди дорівнює одиниці: адже якийсь із усіх можливих результатів обов'язково настане. Подія, як ви розумієте, може мати і нерівноймовірні результати. Так, при футбольному матчі між сильною та слабкою командами ймовірність перемоги сильної команди велика – наприклад, 4/5. Імовірність нічиєї набагато менша, наприклад 3/20. Імовірність поразки дуже мала.


Виходить, що кількість інформації – це міра зменшення невизначеності певної ситуації. Різні кількості інформації передаються каналами зв'язку, і кількість проходить через канал інформації може бути більше його пропускної спроможності. А її визначають за тим, скільки інформації проходить тут за одиницю часу. Один із героїв роману Жюля Верна «Таємничий острів», журналіст Гедеон Спіллет, передавав телефоном главу з Біблії, щоб його конкуренти не могли скористатися телефонним зв'язком. І тут канал був завантажений повністю, а кількість інформації дорівнювало нулю, бо абоненту передавалися відомі йому відомості. Отже, канал працював вхолосту, пропустивши певну кількість імпульсів, нічим їх не навантаживши. Тим більше що більше інформації несе кожен із певного числа імпульсів, тим повніше використовується пропускна здатність каналу. Тому потрібно розумно кодувати інформацію, знайти економну, скупу мову передачі повідомлень.


Інформацію «просіюють» ретельно. У телеграфі літери, що часто зустрічаються, поєднання літер, навіть цілі фрази зображують більш коротким набором нулів і одиниць, а ті, що зустрічаються рідше, - довшим. У випадку, коли зменшують довжину кодового слова для символів, що часто зустрічаються, і збільшують для рідко зустрічаються, говорять про ефективне кодування інформації. Але на практиці досить часто трапляється, що код, що виник у результаті найретельнішого «просіювання», код зручний і економний, може спотворити повідомлення через перешкоди, які завжди, на жаль, бувають у каналах зв'язку: спотворення звуку в телефоні, атмосферні перешкоди радіо, спотворення або затемнення зображення в телебаченні, помилки при передачі в телеграфі. Ці перешкоди, або, як їх називають фахівці, шуми обрушуються на інформацію. А від цього бувають найнеймовірніші і, природно, неприємні несподіванки.


Тому підвищення надійності передачі та обробці інформації доводиться запроваджувати зайві символи - своєрідну захист від спотворень. Вони – ці зайві символи – не несуть дійсного змісту у повідомленні, вони надмірні. З точки зору теорії інформації все те, що робить мову барвистим, гнучким, багатим на відтінки, багатоплановим, багатозначним, - надмірність. Як надмірно з таких позицій листа Тетяни до Онєгіна! Скільки в ньому інформаційних надмірностей для короткого та всім зрозумілого повідомлення «Я вас люблю»! І як інформаційно точні мальовані позначення, зрозумілі всім і кожному, хто входить сьогодні в метро, ​​де замість слів та фраз оголошень висять лаконічні символьні знаки, що вказують: Вхід, Вихід.


У цьому зв'язку корисно згадати анекдот, розказаний свого часу знаменитим американським ученим Бенджаменом Франкліном, про капелюшника, який запросив своїх друзів для обговорення проекту вивіски. . Один із друзів зауважив, що слова «за готівку» є зайвими – таке нагадування буде образливим для покупця. Інший знайшов також зайвим слово «продає», оскільки зрозуміло, що капелюшник продає капелюхи, а не роздає їх задарма. Третьому здалося, що слова «капелюшник» і «робить капелюхи» є непотрібною тавтологією, і останні слова були викинуті. Четвертий запропонував викинути і слово «капелюшник» - намальований капелюх ясно говорить, хто такий Джон Томпсон. Нарешті, п'ятий запевняв, що для покупця абсолютно байдуже, чи капелюшник називатиметься Джоном Томпсоном чи інакше, і запропонував обійтися без цієї вказівки. Таким чином, зрештою на вивісці не залишилося нічого, крім капелюха. Звичайно, якби люди користувалися тільки такого роду кодами, без надмірності в повідомленнях, то всі «інформаційні форми» – книги, доповіді, статті – були б гранично короткими. Але програли б у дохідливості та красі.

Інформацію можна розділити на види за різними критеріями: за істинністю:істинна та хибна;

за способом сприйняття:

Візуальна – сприймається органами зору;

Аудіальна – сприймається органами слуху;

Тактильна – сприймається тактильними рецепторами;

Нюхальна - сприймається нюховими рецепторами;

Смакова – сприймається смаковими рецепторами.


за формою подання:

Текстова - передана як символів, призначених позначати лексеми мови;

Числова - як цифр і знаків, що позначають математичні дії;

Графічна - як зображень, предметів, графіків;

Звукова – усна або у вигляді запису передача лексем мови аудіальним шляхом.


за призначенням:

Масова - містить тривіальні відомості та оперує набором понять, зрозумілим більшій частині соціуму;

Спеціальна - містить специфічний набір понять, під час використання відбувається передача відомостей, які можуть бути не зрозумілі основній масі соціуму, але необхідні і зрозумілі в рамках вузької соціальної групи, де використовується дана інформація;

Секретна - передана вузькому колу осіб та по закритих (захищених) каналах;

Особиста (приватна) - набір відомостей про будь-яку особистість, визначальний соціальне становище і типи соціальних взаємодій усередині популяції.


за значенням:

Актуальна – інформація цінна в даний момент часу;

Достовірна – інформація, отримана без спотворень;

Зрозуміла - інформація, виражена мовою зрозумілою тому, кому вона призначена;

Повна - інформація, достатня до ухвалення правильного рішення чи розуміння;

Корисна - корисність інформації визначається суб'єктом, який отримав інформацію залежно від обсягу можливостей її використання.


Значення інформації у різних галузях знань

Теоретично інформації нашого часу розробляють багато систем, методів, підходів, ідей. Проте вчені вважають, що до сучасних напрямів теорії інформації додадуться нові, з'являться нові ідеї. Як доказ правильності своїх припущень вони наводять «живий», що розвивається характер науки, вказують на те, що теорія інформації напрочуд швидко і міцно впроваджується в різні галузі людського знання. Теорія інформації проникла у фізику, хімію, біологію, медицину, філософію, лінгвістику, педагогіку, економіку, логіку, технічні науки, естетику. За визнанням самих фахівців, вчення про інформацію, що виникло з потреб теорії зв'язку та кібернетики, переступило їх рамки. І тепер, мабуть, ми маємо право говорити про інформацію як наукове поняття, що дає в руки дослідників теоретико - інформаційний метод, за допомогою якого можна проникнути в багато наук про живу і неживу природу, про суспільство, що дозволить не тільки поглянути на всі проблеми з новою сторони, але й побачити ще небачене. Ось чому термін «інформація» отримав у наш час стала вельми поширеною, ставши частиною таких понять, як інформаційна система, інформаційна культура, навіть інформаційна етика.


Багато наукових дисциплін використовують теорію інформації, щоб підкреслити новий напрямок у старих науках. Так з'явилися, наприклад, інформаційна географія, інформаційна економіка, інформаційне право. Але надзвичайно велике значення набув термін «інформація» у зв'язку з розвитком новітньої комп'ютерної техніки, автоматизацією розумової праці, розвитком нових засобів зв'язку та обробки інформації та особливо з виникненням інформатики. Однією з найважливіших завдань теорії інформації є вивчення природи та властивостей інформації, створення методів її обробки, зокрема перетворення найрізноманітнішої сучасної інформації в програми для ЕОМ, за допомогою яких відбувається автоматизація розумової роботи – своєрідне посилення інтелекту, а отже, розвиток інтелектуальних ресурсів суспільства.


Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття «інформація» є базовим у курсі інформатики, проте неможливо дати його визначення через інші, простіші поняття. Поняття «інформація» використовується в різних науках, при цьому в кожній науці поняття «інформація» пов'язане з різними системами понять. Інформація в біології: Біологія вивчає живу природу та поняття «інформація» пов'язується з доцільною поведінкою живих організмів. У живих організмах інформація передається та зберігається за допомогою об'єктів різної фізичної природи (стан ДНК), які розглядаються як знаки біологічних алфавітів. Генетична інформація передається у спадок і зберігається у всіх клітинах живих організмів. Філосівський підхід: Інформація - це взаємодія, відображення, пізнання. Кібернетичний підхід: Інформація - це характеристики керуючого сигналу, що передається по лінії зв'язку.

Роль інформації у філософії

Традиціоналізм суб'єктивного постійно домінував у ранніх визначеннях інформації, як категорії, поняття, властивості матеріального світу. Інформація існує поза нашої свідомості, і може відбито у сприйнятті лише як результат взаємодії: відбиття, читання, отримання як сигналу, стимулу. Інформація не є матеріальною, як і всі властивості матерії. Інформація стоїть у ряду: матерія, простір, час, системність, функція, та ін. Інформація - властивість матерії і відбиває її властивості (стан чи здатність взаємодії) і кількість (захід) шляхом взаємодії.


З матеріального погляду інформація - це порядок прямування об'єктів матеріального світу. Наприклад, порядок проходження літер на аркуші паперу за певними правилами є письмовою інформацією. Порядок проходження різнокольорових точок на аркуші паперу за певними правилами є графічною інформацією. Порядок проходження музичних нот є музичною інформацією. Порядок проходження генів у ДНК є спадковою інформацією. Порядок прямування бітів в ЕОМ є комп'ютерною інформацією тощо. і т.п. Для здійснення інформаційного обміну потрібна наявність необхідних та достатніх умов.

Необхідні умови:

Наявність щонайменше двох різних об'єктів матеріального чи нематеріального світу;

Наявність у об'єктів загальної властивості, що дозволяє ідентифікувати об'єкти як носій інформації;

Наявність в об'єктів специфічної якості, що дозволяє розрізняти об'єкти друг від друга;

Наявність якості простору, що дозволяє визначити порядок прямування об'єктів. Наприклад, розташування письмової інформації на папері - це специфічна властивість паперу, що дозволяє розташовувати букви зліва направо та зверху донизу.


Достатня умова одна: наявність суб'єкта, здатного розпізнавати інформацію. Це людина та людське суспільство, товариства тварин, роботів тощо. Інформаційне повідомлення будується шляхом вибору з базису копій об'єктів та розташування цих об'єктів у просторі у визначеному порядку. Довжина інформаційного повідомлення визначається як кількість копій об'єктів базису та завжди виражається цілим числом. Необхідно розрізняти довжину інформаційного повідомлення, яке завжди вимірюється цілим числом, та кількість знань, що міститься в інформаційному повідомленні, яке вимірюється у невідомій одиниці виміру. З математичної погляду інформація - це послідовність цілих чисел, які записані у вектор. Числа – це номер об'єкта у базисі інформації. Вектор називається інваріантом інформації, оскільки він залежить від фізичної природи об'єктів базису. Те саме інформаційне повідомлення може бути виражене літерами, словами, пропозиціями, файлами, картинками, нотами, піснями, відеокліпами, будь-якою комбінацією всіх раніше названих.

Роль інформації у фізиці

Інформація – це відомості про навколишній світ (об'єкт, процес, явища, подію), які є об'єктом перетворення (включаючи зберігання, передачу і т.д.) і використовуються для вироблення поведінки, для прийняття рішення, для управління або для навчання.


Характерними рисами інформації є такі:

Це найбільш важливий ресурс сучасного виробництва: він знижує потребу у землі, праці, капіталі, зменшує витрати сировини та енергії. Так, наприклад, маючи вміння архівувати свої файли (тобто маючи таку інформацію), можна не витрачатися на покупку нових дискет;

Інформація викликає життя нові виробництва. Наприклад, винахід лазерного променя стало причиною виникнення та розвитку виробництва лазерних (оптичних) дисків;

Інформація є товаром, причому продавець інформації її втрачає після продажу. Так, якщо студент повідомить свого товариша відомості про розклад занять протягом семестру, він ці дані не втратить для себе;

Інформація надає додаткової цінності іншим ресурсам, зокрема, трудовим. Справді, працівник із вищою освітою цінується більше, ніж із середньою.


Як випливає з визначення, з інформацією завжди пов'язують три поняття:

Джерело інформації – той елемент навколишнього світу (об'єкт, процес, явище, подія), відомості про які є об'єктом перетворення. Так, джерелом інформації, яку на даний момент отримує читач цього навчального посібника, є інформатика як сфера людської діяльності;

Споживач інформації – той елемент навколишнього світу, який використовує інформацію (для вироблення поведінки, прийняття рішення, управління чи навчання). Споживач цієї інформації – сам читач;

Сигнал – матеріальний носій, який фіксує інформацію перенесення її від джерела до споживача. У разі сигнал носить електронний характер. Якщо ж студент візьме цей посібник у бібліотеці, то та сама інформація матиме паперовий носій. Будучи прочитаною та запам'ятованою студентом, інформація придбає ще один носій – біологічний, коли вона “записується” на згадку учня.


Сигнал є найважливішим елементом у цій схемі. Форми його подання, а також кількісні та якісні характеристики інформації, що міститься в ньому, важливі для споживача інформації, розглядаються далі в даному розділі підручника. Основні характеристики комп'ютера як основного інструмента, що виконує відображення джерела інформації сигнал (зв'язок 1 малюнку) і “доведення” сигналу до споживача інформації (зв'язок 2 малюнку), наводяться у частині Комп'ютер. Структура процедур, що реалізують зв'язки 1 та 2 та складових інформаційний процес, є предметом розгляду в частині Інформаційний процес.

Об'єкти матеріального світу перебувають у стані безперервної зміни, що характеризується обміном енергією об'єкта із довкіллям. Зміна стану одного об'єкта завжди призводить до зміни стану, деякого іншого об'єкта навколишнього середовища. Це явище, незалежно від того, як, які саме стани та яких саме об'єктів змінилися, може розглядатися як передача сигналу від одного об'єкта іншому. Зміна стану об'єкта під час передачі йому сигналу, називається реєстрацією сигналу.


Сигнал або послідовність сигналів утворюють повідомлення, яке може бути сприйняте одержувачем у тому чи іншому вигляді, а також у тому чи іншому обсязі. Інформація у фізиці є термін, який якісно узагальнює поняття «сигнал» та «повідомлення». Якщо сигнали та повідомлення можна обчислювати кількісно, ​​то можна сказати, що сигнали та повідомлення є одиницями вимірювання обсягу інформації. Повідомлення (сигнал) різними системами інтерпретується по-своєму. Наприклад, послідовно довгий і два короткі звукові сигнали в термінології абетки Морзе - це буква де (або D), в термінології БІОС від фірми AWARD - несправність відеокарти.

Роль інформації з математики

У математиці теорія інформації (математична теорія зв'язку) - розділ прикладної математики, що визначає поняття інформації, її властивості та встановлює граничні співвідношення для систем передачі даних. Основні розділи теорії інформації - кодування джерела (що стискає кодування) та канальне (перешкодостійке) кодування. Математика є більшою ніж науковою дисципліною. Вона створює єдину мову усієї Науки.


Предметом досліджень математики є абстрактні об'єкти: число, функція, вектор, безліч та інші. У цьому більшість їх вводиться аксіоматично (аксіома), тобто. без будь-якого зв'язку з іншими поняттями та без будь-якого визначення.

Інформація не входить до предметів дослідження математики. Проте слово «інформація» вживається в математичних термінах – власна інформація та взаємна інформація, що належать до абстрактної (математичної) частини теорії інформації. Проте, у математичної теорії поняття «інформація» пов'язані з виключно абстрактними об'єктами – випадковими величинами, тоді як і сучасної теорії інформації це поняття розглядається значно ширше – як властивість матеріальних об'єктів. Зв'язок між двома однаковими термінами безсумнівна. Саме математичний апарат випадкових чисел використав автор теорії інформації Клод Шеннон. Сам він має на увазі під терміном «інформація» щось фундаментальне (нередуковане). Теоретично Шеннона інтуїтивно вважається, що інформація має зміст. Інформація зменшує загальну невизначеність та інформаційну ентропію. Кількість інформації доступна виміру. Однак він застерігає дослідників від механічного перенесення понять з його теорії до інших галузей науки.


"Пошук шляхів застосування теорії інформації в інших галузях науки не зводиться до тривіального перенесення термінів з однієї галузі науки в іншу. Цей пошук здійснюється у тривалому процесі висування нових гіпотез та їх експериментальній перевірці." К. Шеннон.

Роль інформації у кібернетиці

Засновник кібернетики Нор берт Вінер говорив про інформацію так:

Інформація - це не матерія і не енергія, інформація - це інформація". Але основне визначення інформації, яке він дав у кількох своїх книгах, таке: інформація - це позначення змісту, отриманого нами із зовнішнього світу, у процесі пристосування до нього нас та наших почуттів.

Інформація - це основне поняття кібернетики, так само економічна І. - основне поняття економічної кібернетики.


Визначень цього терміна багато, вони складні та суперечливі. Причина, очевидно, у тому, що І. як явище займаються різні науки, і кібернетика лише наймолодша з них. І. - предмет вивчення таких наук, як наука про управління, математична статистика, генетика, теорія засобів масової І. (друк, радіо, телебачення), інформатика, що займається проблемами науково-технічної І., і т. д. Нарешті останнім часом великий інтерес до проблем І. виявляють філософи: вони схильні розглядати І. як одну з основних універсальних властивостей матерії, пов'язану з поняттям відображення. При всіх трактуваннях поняття І. вона передбачає існування двох об'єктів: джерела І. та споживача (одержувача) І. Передача І. від одного до іншого відбувається за допомогою сигналів, які, взагалі кажучи, можуть не мати жодного фізичного зв'язку з її змістом: ця зв'язок визначається угодою. Напр., удар у вічовий дзвін означав, що треба збиратися на площу, але тим, хто не знав про цей порядок, він не повідомляв жодної І.І.


У ситуації з вічовим дзвоном людина, яка бере участь у угоді про сенс сигналу, знає, що на даний момент можуть бути дві альтернативи: вічові збори відбудуться чи не відбудуться. Або, висловлюючись мовою теорії І., невизначена подія (віче) має два результати. Ухвалений сигнал призводить до зменшення невизначеності: людина тепер знає, що подія (віче) має лише один результат - вона відбудеться. Однак, якщо заздалегідь було відомо, що віче відбудеться о цій годині, дзвін нічого нового не повідомив. Звідси випливає, що менше ймовірно (тобто більш несподівано) повідомлення, тим більше І. воно містить, і навпаки, що більше ймовірність результату до скоєння події, тим менше І. містить сигнал. Приблизно такі міркування привели у 40-х роках. XX ст. до виникнення статистичної, чи “класичної”, теорії І., яка визначає поняття І. через міру зменшення невизначеності знання про вчинення будь-якої події (такий захід було названо ентропією). Біля витоків цієї науки стояли Н. Вінер, К. Шеннон та радянські вчені А. Н. Колмогоров, В. А. Котельников та ін. Їм вдалося вивести математичні закономірності вимірювання кількості І., а звідси і такі поняття, як пропускна здатність каналу І ., ємність запам'ятовують І. пристроїв і т. п., що послужило потужним стимулом розвитку кібернетики як науки і електронно-обчислювальної техніки як практичного застосування досягнень кібернетики.


Щодо визначення цінності, корисності І. для одержувача, то тут ще багато невирішеного, неясного. Якщо виходити із потреб економічного управління і, отже, економічної кібернетики, то І. можна визначити як усі ті відомості, знання, повідомлення, які допомагають вирішити те чи інше завдання управління (тобто зменшити невизначеність її результатів). Тоді відкриваються і деякі можливості для оцінки І.: вона тим корисніша, цінніша, чим швидше або з меншими витратами призводить до вирішення завдання. Поняття І. близьке до поняття дані. Проте з-поміж них є відмінність: дані - це сигнали, із яких треба витягти І. Обробка даних є процес приведення їх до придатного при цьому виду.


Процес їх передачі від джерела до споживача та сприйняття як І. може розглядатися як проходження трьох фільтрів:

Фізичного, або статистичного (чисто кількісне обмеження щодо пропускної спроможності каналу, незалежно від змісту даних, тобто з погляду синтактики);

Семантичного (відбір тих даних, які можуть бути зрозумілі одержувачем, тобто відповідають тезаурус його знань);

Прагматичного (відбір серед зрозумілих відомостей тих, які корисні для вирішення цього завдання).

Це добре показано на схемі, взятій із книги Є. Г. Ясіна про економічну інформацію. Відповідно виділяються три аспекти вивчення проблем І. – синтаксичний, семантичний та прагматичний.


За змістом І. підрозділяється на суспільно-політичну, соціально-економічну (у тому числі економічну І.), науково-технічну і т. д. Загалом класифікацій І. багато, вони будуються з різних підстав. Як правило, через близькість понять так само будуються і класифікації даних. Напр., І. підрозділяється на статичну (постійну) та динамічну (змінну), і дані при цьому - на постійні та змінні. Інше розподіл - первинна, похідна, вихідна І. (так само класифікуються дані). Третій поділ - І. керуюча та інформаційна. Четверте - надмірна, корисна та хибна. П'яте - повна (суцільна) та вибіркова. Ця ідея Вінера дає пряме вказівку на об'єктивність інформації, тобто. її існування у природі незалежно від свідомості (сприйняття) людини.

Об'єктивну інформацію сучасна кібернетика визначає як об'єктивне властивість матеріальних об'єктів і явищ породжувати різноманіття станів, які у вигляді фундаментальних взаємодій матерії передаються від одного об'єкта (процесу) іншому, і відбиваються у його структурі. Матеріальна система в кібернетиці сприймається як безліч об'єктів, які власними силами можуть у різних станах, але стан кожного їх визначається станами інших об'єктів системи.

У природі безліч станів системи є інформацією, самі стани є первинний код, або код джерела. Таким чином кожна матеріальна система є джерелом інформації. Суб'єктивну (семантичну) інформацію кібернетика визначає як зміст чи зміст повідомлення.

Роль інформації в інформатиці

Предметом вивчення науки є саме дані: методи їх створення, зберігання, обробки та передачі. Контент (також: "наповнення" (в контексті), "наповнення сайту") - термін, що означає всі види інформації (як текстової, так і мультимедійної - зображення, аудіо, відео), що становить наповнення (візуалізоване, для відвідувача, вміст) веб -сайту. Застосовується відділення поняття інформації, що становить внутрішню структуру сторінки/сайту (код), від тієї, що у результаті виведено на экран.

Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття «інформація» є базовим у курсі інформатики, проте неможливо дати його визначення через інші, простіші поняття.


Можна виділити такі підходи до визначення інформації:

Традиційний (звичайний) - використовується в інформатиці: Інформація - це відомості, знання, повідомлення про стан справ, які людина сприймає з навколишнього світу за допомогою органів чуття (зір, слуху, смаку, нюху, дотику).

Імовірнісний - використовується в теорії про інформацію: Інформація - це відомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які зменшують наявний про них ступінь невизначеності та неповноти знань.


Інформація зберігається, передається та обробляється у символьній (знаковій) формі. Одна й та інформація може бути представлена ​​в різній формі:

Знаковий письмовій, що з різних знаків серед яких виділяють символьну як тексту, чисел, спец. символів; графічну; табличну тощо;

Види жестів чи сигналів;

усній словесній формі (розмова).


Подання інформації здійснюється за допомогою мов як знакових систем, що будуються на основі певного алфавіту та мають правила для виконання операцій над знаками. Мова - певна знакова система подання інформації. Існують:

Природні мови – розмовні мови в усній та письмовій формах. У деяких випадках розмовну мову можуть замінити мову міміки та жестів, мову спеціальних знаків (наприклад, дорожніх);

Формальні мови – спеціальні мови для різних галузей людської діяльності, які характеризуються жорстко зафіксованим алфавітом, суворішими правилами граматики та синтаксису. Це мова музики (ноти), мова математики (цифри, математичні знаки), системи числення, мови програмування тощо. В основі будь-якої мови лежить алфавіт – набір символів/символів. Повне число символів алфавіту називається потужністю алфавіту.


Носії інформації – середовище або фізичне тіло для передачі, зберігання та відтворення інформації. (Це електричні, світлові, теплові, звукові, радіо сигнали, магнітні та лазерні диски, друковані видання, фотографії тощо)

Інформаційні процеси - це процеси, пов'язані з отриманням, зберіганням, обробкою та передачею інформації (тобто дії, що виконуються з інформацією). Тобто. це процеси, у яких змінюється зміст інформації чи форма її представлення.

Для забезпечення інформаційного процесу необхідне джерело інформації, канал зв'язку та споживач інформації. Джерело передає (надсилає) інформацію, а приймач її отримує (сприймає). Інформація, що передається, досягає від джерела до приймача за допомогою сигналу (коду). Зміна сигналу дає змогу отримати інформацію.

Будучи об'єктом перетворення та використання, інформація характеризується такими властивостями:

Синтаксис – властивість, що визначає спосіб представлення інформації на носії (у сигналі). Так, ця інформація представлена ​​на електронному носії за допомогою певного шрифту. Тут можна розглядати такі параметри подання інформації, як стиль і колір шрифту, його розміри, міжрядковий інтервал тощо. Виділення необхідних властивостей як синтаксичних якостей, зрозуміло, визначається передбачуваним методом перетворення. Наприклад, для людини, яка погано бачить, істотним є розмір і колір шрифту. Якщо передбачається вводити текст у комп'ютер через сканер, важливий формат паперу;


Семантика – властивість, що визначає зміст інформації як відповідність сигналу до реального світу. Так, семантика сигналу “інформатика” полягає у цьому визначенні. Семантика може розглядатися як деяка угода, відома споживачеві інформації, про те, що означає кожен сигнал (так зване правило інтерпретації). Наприклад, саме семантику сигналів вивчає автомобіліст-початківець, що штудує правила дорожнього руху, пізнаючи дорожні знаки (у цьому випадку сигналами виступають самі знаки). Семантику слів (сигналів) пізнає той, хто навчається якійсь іноземній мові. Можна сміливо сказати, що значення навчання інформатиці полягає у вивченні семантики різних сигналів – суть ключових понять цієї дисципліни;


Прагматика - властивість, що визначає вплив інформації на поведінку споживача. Так прагматика інформації, одержуваної читачем цього навчального посібника, полягає, щонайменше, в успішному складання іспиту з інформатики. Хочеться вірити, що цим прагматика даної праці не обмежиться і він послужить для подальшого навчання та професійної діяльності читача.

Слід зазначити, що різні синтаксису сигнали можуть мати однакову семантику. Наприклад, сигнали "ЕОМ" та "комп'ютер" означають електронний пристрій для перетворення інформації. У цьому випадку зазвичай говорять про синонімію сигналів. З іншого боку, один сигнал (тобто інформація з одним синтаксичним властивістю) може мати різну прагматику для споживачів і різну семантику. Так, дорожній знак, відомий під назвою "цегла" і має певну семантику ("в'їзд заборонений"), означає для автомобіліста заборона на в'їзд, а на пішохода ніяк не впливає. У той же час, сигнал “ключ” може мати різну семантику: скрипковий ключ, джерельний ключ, ключ для відкриття замка, ключ, що використовується в інформатиці для кодування сигналу з метою захисту від несанкціонованого доступу (у цьому випадку говорять про омонімію сигналу). Є сигнали – антоніми, що мають протилежну семантику. Наприклад, "холодний" та "гарячий", "швидкий" і "повільний" і т.д.


Предметом вивчення науки інформатика є саме дані: методи їх створення, зберігання, обробки та передачі. А сама інформація, зафіксована в даних, її змістовний зміст цікаві користувачам інформаційних систем, які є фахівцями різних наук та галузей діяльності: медика цікавить медична інформація, геолога – геологічна, підприємця – комерційна тощо. (у тому числі фахівця з інформатики цікавить інформація щодо роботи з даними).

Семіотика - наука про інформацію

Інформацію не можна уявити без її отримання, обробки, передачі тощо, тобто поза рамками обміну інформацією. Усі акти інформаційного обміну здійснюються у вигляді символів чи знаків, з допомогою яких одна система впливає іншу. Тому основною нayкою, що вивчає інформацію, є семіотика - наука про знаки та знакові системи в природі та суспільстві (теорія знаків). У кожному акті інформаційного обміну можна виявити три його «учасники», три елементи: знак, об'єкт, який він позначає, та одержувача (користувача) знака.


Залежно від того, відносини між якими елементами розглядаються, семіотику поділяють на три розділи: синтактику, семантику та прагматику. Синтактика вивчає знаки та стосунки між ними. При цьому вона абстрагується від змісту знака та його практичного значення для одержувача. Семантика вивчає відносини між знаками та позначаються ними об'єктами, відволікаючись при цьому від одержувача знаків та цінності останніх: для нього. Зрозуміло, що вивчення закономірностей смислового відображення об'єктів у знаках неможливе без урахування та використання загальних закономірностей побудови будь-яких знакових систем, що вивчаються синтактикою. Прагматика вивчає відносини між знаками та їхніми користувачами. В рамках прагматики вивчаються всі фактори, що відрізняють один акт інформаційного обміну від іншого, всі питання практичних результатів використання інформації та цінності для одержувача.


При цьому неминуче зачіпаються багато аспектів відносин знаків між собою і з об'єктами, що ними позначаються. Таким чином, три розділи семіотики відповідають трьом рівням абстрагування (відволікання) від особливостей конкретних актів обміну інформацією. Вивчення інформації у всьому її різноманітті відповідає прагматичному рівню. Відволікаючись від одержувача інформації, виключаючи його з розгляду, ми переходимо до її вивчення на семантичному рівні. З відволіканням змісту знаків аналіз інформації перекладається рівень синтактики. Таке взаємопроникнення основних розділів семіотики, пов'язане з різними рівнями абстрагування, можна подати за допомогою схеми «Три розділи семіотики та їх взаємозв'язок». Вимірювання інформації здійснюється відповідно так само у трьох аспектах: синтактичному, семантичному та прагматичному. Потреба такому різному вимірі інформації, як буде показано нижче, диктується практикою проектування та організації роботи інформаційних систем. Розглянемо типову виробничу ситуацію.


Наприкінці зміни планувальник ділянки готує дані виконання графіка виробництва. Ці дані надходять до інформаційно-обчислювального центру (ІОЦ) підприємства, де обробляються, і у вигляді зведень про стан виробництва на поточний момент видаються керівникам. Начальник цеху на підставі отриманих даних приймає рішення про зміну плану виробництва на наступний плановий період або вживання будь-яких інших організаційних заходів. Очевидно, що для начальника цеху кількість інформації, що містила зведення, залежить від величини економічного афекту, отриманого від її використання при прийнятті рішень, від того, наскільки корисними були отримані відомості. Для планувальника ділянки кількість інформації в тому самому повідомленні визначається точністю відповідності його фактичному стану справ на ділянці та ступенем несподіванки фактів, що повідомляються. Чим вони несподіваніші, тим швидше потрібно повідомити про них керівництву, тим більше інформації в цьому повідомленні. Для працівників ІОЦ першорядне значення матиме кількість знаків, довжина повідомлення, що несе інформацію, оскільки саме вона визначає час завантаження обчислювальної техніки та каналів зв'язку. При цьому ні корисність інформації, ні кількісна міра смислової цінності інформації їх практично не цікавить.


Природно, що організуючи систему управління виробництвом, будуючи моделі вибору рішення, ми як міра інформативності повідомлень використовуватимемо корисність інформації. При побудові системи обліку та звітності, що забезпечує керівництво даними про перебіг виробничого процесу за міру кількості інформації, слід приймати новизну отриманих відомостей. Організація процедур механічної переробки інформації вимагає вимірювання обсягу повідомлень у вигляді кількості оброблюваних знаків. Три таких суттєво різних підходів до вимірювання інформації не суперечать і не виключають один одного. Навпаки, вимірюючи інформацію в різних шкалах, вони дозволяють повніше та всебічно оцінити інформативність кожного повідомлення та ефективніше організувати систему управління виробництвом. За влучним виразом проф. Н.Є. Кобринського, коли йдеться про раціональну організацію потоків інформації, кількість, новизна, корисність інформації виявляються між собою так само пов'язаними, як кількість, якість та вартість продукції у виробництві.

Інформація у матеріальному світі

Інформація - одне із загальних понять, пов'язаних з матерією. Інформація існує у будь-якому матеріальному об'єкті як різноманіття його станів і передається від об'єкта до об'єкту у процесі взаємодії. Існування інформації як об'єктивної властивості матерії логічно випливає з відомих фундаментальних властивостей матерії – структурності, безперервної зміни (руху) та взаємодії матеріальних об'єктів.


Структурність матерії проявляється як внутрішня розчленованість цілісності, закономірний порядок зв'язку елементів у складі цілого. Інакше кажучи, будь-який матеріальний об'єкт, від субатомної частки Мета всесвіту (Великий вибух) загалом, є систему взаємозалежних підсистем. Внаслідок безперервного руху, що розуміється у широкому значенні як переміщення у просторі та розвиток у часі, матеріальні об'єкти змінюють свої стани. Стан об'єктів змінюється і за взаємодії коїться з іншими об'єктами. Безліч станів матеріальної системи та її підсистем представляє інформацію про систему.


Строго кажучи, через невизначеність, нескінченність, властивості структурності, кількість об'єктивної інформації в будь-якому матеріальному об'єкті нескінченна. Ця інформація називається повною. Однак можна виділяти структурні рівні з кінцевими множинами станів. Інформація, яка існує на структурному рівні з кінцевим числом станів, називається приватною. Для приватної інформації є сенс поняття кількості інформації.

З наведеного уявлення логічно і випливає вибір одиниці виміру кількості інформації. Уявімо систему, яка може перебувати всього в двох рівноймовірних станах. Надамо одному з них код «1», а іншому - «0». Це мінімальна кількість інформації, яку може містити система. Воно і є одиницею виміру інформації і називається біт. Існують й інші, складніше визначальніші способи та одиниці вимірювання кількості інформації.


Залежно від матеріальної форми носія, інформація буває двох основних видів – аналогова та дискретна. Аналогова інформація змінюється у часі безперервно і набуває значення континууму значень. Дискретна інформація змінюється в деякі моменти часу і набуває значень з деякої кількості значень. Будь-який матеріальний об'єкт чи процес є первинним джерелом інформації. Усі можливі його стани становлять код джерела інформації. Миттєве значення станів представляється як символ (літера) цього коду. Щоб інформація могла передаватися від одного об'єкта іншому як до приймача, необхідно, щоб був якийсь проміжний матеріальний носій, що взаємодіє з джерелом. Такими переносниками в природі, як правило, є процеси хвильової структури, що швидко поширюються - космічні, гамма і рентгенівські випромінювання, електромагнітні і звукові хвилі, потенціали (а може бути і ще не відкриті хвилі) гравітаційного поля. При взаємодії електромагнітного випромінювання з об'єктом внаслідок поглинання чи відображення змінюється спектр, тобто. змінюються інтенсивності деяких довжин хвиль. Змінюються при взаємодії з об'єктами та гармонікою звукових коливань. Інформація передається і при механічній взаємодії, проте механічна взаємодія, як правило, призводить до більших змін структури об'єктів (аж до їх руйнування), і інформація сильно спотворюється. Спотворення інформації при її передачі називається дезінформація.


Перенесення інформації джерела на структуру носія називається кодуванням. При цьому відбувається перетворення коду джерела на код носія. Носій з перенесеним нею кодом джерела як коду носія називається сигналом. Приймач сигналу має свій набір можливих станів, який називається кодом приймача. Сигнал, взаємодіючи з об'єктом-приймачем, змінює його стан. Процес перетворення коду сигналу в код приймача називається декодуванням. Передача інформації від джерела приймача можна розглядати як інформаційна взаємодія. Інформаційна взаємодія кардинально відрізняється з інших взаємодій. При всіх інших взаємодіях матеріальних об'єктів відбувається обмін речовиною та (або) енергією. При цьому один з об'єктів втрачає речовину чи енергію, а інший отримує їх. Ця властивість взаємодій називається симетричністю. При інформаційному взаємодії приймач отримує інформацію, а джерело втрачає її. Об'єктивна інформація сама по собі не матеріальна, вона є властивістю матерії, як, наприклад, структурність, рух, і існує на матеріальних носіях у вигляді своїх кодів.

Інформація у живій природі

Жива природа складна та різноманітна. Джерелами та приймачами інформації в ній є живі організми та їх клітини. Організм має низку властивостей, що відрізняють його від неживих матеріальних об'єктів.


Основні:

Безперервний обмін речовиною, енергією та інформацією з довкіллям;

Подразливість, здатність організму сприймати та переробляти інформацію про зміни навколишнього середовища та внутрішнього середовища організму;

Збудливість, здатність реагувати на дію подразників;

Самоорганізація, що проявляється як зміни організму для адаптації до умов довкілля.


Організм, що розглядається як система, має ієрархічну структуру. Ця структура щодо самого організму поділяється на внутрішні рівні: молекулярний, клітинний, рівень органів та, нарешті, власне організм. Однак організм взаємодіє і над організмовими живими системами, рівнями яких є популяція, екосистема та вся жива природа загалом (біосфера). Між усіма цими рівнями циркулюють потоки не тільки речовини та енергії, але й інформації. Інформаційні взаємодії в живій природі відбуваються так само, як і в неживій. Разом з тим, жива природа у процесі еволюції створила широке розмаїття джерел, носіїв та приймачів інформації.


Реакція на впливи зовнішнього світу проявляється у всіх організмів, оскільки вона обумовлена ​​дратівливістю. У вищих організмів адаптація до зовнішнього середовища носить характер складної діяльності, яка ефективна лише за досить повної та своєчасної інформації про навколишнє середовище. Приймачами інформації із довкілля вони є органи почуттів, яких відносять зір, слух, нюх, смак, дотик і вестибулярний апарат. У внутрішній структурі організмів є численні внутрішні рецептори, пов'язані з нервовою системою. Нервова система складається з нейронів, відростки яких (аксони і дендрити) є аналогом каналів передачі інформації. Головними органами, що забезпечують зберігання та обробку інформації у хребетних, є спинний мозок та головний мозок. Відповідно до особливостей органів чуття інформацію, що сприймається організмом, можна класифікувати як візуальну, слухову, смакову, нюхову та тактильну.


Потрапляючи на сітківку людського ока, сигнал особливим чином збуджує її клітини. Нервові імпульси клітин через аксони передаються у мозок. Мозок запам'ятовує це відчуття у вигляді певної комбінації станів складових його нейронів. (Продовження прикладу – у секції "Інформація в людському суспільстві"). Накопичуючи інформацію, мозок створює у своїй структурі пов'язану інформаційну модель навколишнього світу. У живій природі організму - приймача інформації важливою характеристикою є її доступність. Кількість інформації, яку нервова система людини здатна подати в мозок під час читання текстів, становить приблизно 1 біт за 1/16 с.

Дослідження організмів утруднене їх складністю. Допустима для неживих об'єктів абстракція структури як математичної множини навряд чи допустима для живого організму, тому що для створення більш менш адекватної абстрактної моделі організму необхідно врахувати всі ієрархічні рівні його структури. Тому складно запровадити міру кількості інформації. Дуже складно визначаються зв'язки між компонентами структури. Якщо відомо, який орган є джерелом інформації, що є сигналом і що приймачем?


До появи обчислювальних машин біологія, що займається дослідженнями живих організмів, застосовувала лише якісні, тобто. описові моделі У якісній моделі зважити на інформаційні зв'язки між компонентами структури практично неможливо. Електронно-обчислювальна техніка дозволила застосувати в біологічних дослідженнях нові методи, зокрема метод машинного моделювання, що передбачає математичний опис відомих явищ і процесів, що відбуваються в організмі, додавання до них гіпотез про деякі невідомі процеси і розрахунок можливих варіантів поведінки організму. Отримані варіанти порівнюються з реальною поведінкою організму, що дозволяє визначити істинність чи хибність висунутих гіпотез. У таких моделях можна врахувати та інформаційну взаємодію. Надзвичайно складними є інформаційні процеси, які забезпечують існування життя. І хоча інтуїтивно зрозуміло, що ця властивість прямо пов'язана з формуванням, зберіганням та передачею повної інформації про структуру організму, абстрактний опис цього феномену уявлявся до певного часу неможливим. Тим не менш, інформаційні процеси, що забезпечують існування цієї властивості, частково розкрито завдяки розшифровці генетичного коду та прочитанню геномів різних організмів.

Інформація у суспільстві

Розвиток матерії у процесі руху спрямоване у бік ускладнення структури матеріальних об'єктів. Одна із найскладніших структур – людський мозок. Поки що це єдина відома нам структура, що має властивість, яку сама людина називає свідомістю. Говорячи про інформацію ми, як мислячі істоти, апріорно маємо на увазі, що інформація, крім її наявності у вигляді сигналів, що приймаються нами, має ще і якийсь сенс. Формуючи у своїй свідомості модель навколишнього світу як взаємопов'язану сукупність моделей його об'єктів і процесів, людина використовує саме смислові поняття, а чи не інформацію. Сенс - сутність будь-якого феномена, яка збігається з ним самим і пов'язує його з ширшим контекстом реальності. Саме слово прямо вказує, що зміст змісту інформації можуть формувати тільки мислячі приймачі інформації. У людському суспільстві вирішального значення набуває не сама інформація, а її смислове зміст.


Приклад (продовження). Зазнавши таке відчуття, людина надає об'єкту поняття – «помідор», яке стану поняття - «червоний колір». Крім того, його свідомість фіксує зв'язок: "помідор" - "червоного кольору". Це є сенс прийнятого сигналу. (Продовження прикладу: нижче у цій секції). Здатність мозку створювати смислові поняття та зв'язки між ними є основою свідомості. Свідомість можна розглядати як смислову модель навколишнього світу, що саморозвивається. Сенс це не інформація. Інформація існує лише на матеріальному носії. Свідомість людини вважається нематеріальною. Сенс існує у свідомості людини у вигляді слів, образів та відчуттів. Людина може вимовляти слова як вголос, а й «про себе». Він також «про себе» може створювати (або згадувати) образи та відчуття. Однак він може відновити інформацію, що відповідає цьому сенсу, вимовивши слова або написавши їх.

Приклад (продовження). Якщо слова «помідор» та «червоний колір» - сенс понять, то де тоді інформація? Інформація міститься у мозку у вигляді певних станів його нейронів. Вона міститься також у надрукованому тексті, що складається з цих слів, і при кодуванні літер трирозрядним двійковим кодом її кількість дорівнює 120 біт. Якщо вимовити слова вголос, інформації буде значно більше, але зміст залишиться тим самим. Найбільше інформації несе зоровий образ. Це відбивається навіть у народному фольклорі – "краще один раз побачити, ніж сто разів почути". Відновлена ​​таким чином інформація називається семантичною інформацією, оскільки вона кодує сенс деякої первинної інформації (семантика). Почувши (або побачивши) фразу, вимовлену (або написану) мовою, яку людина не знає, вона отримує інформацію, але не може визначити її зміст. Тому передачі змістового інформації необхідні деякі угоди між джерелом і приймачем про смисловому змісті сигналів, тобто. слів. Такі угоди може бути досягнуто у процесі спілкування. Спілкування одна із найважливіших умов існування людського суспільства.

У сучасному світі інформація є одним з найважливіших ресурсів і, водночас, однією з рушійних сил розвитку людського суспільства. Інформаційні процеси, що відбуваються в матеріальному світі, живій природі та людському суспільстві вивчаються (або принаймні враховуються) усіма науковими дисциплінами від філософії до маркетингу. Зростаюча складність завдань наукових досліджень призвела до необхідності залучення до вирішення великих колективів вчених різних спеціальностей. Тому майже всі аналізовані нижче теорії є міждисциплінарними. Історично склалося так, що дослідженням безпосередньо інформації займаються дві комплексні галузі науки - кібернетика та інформатика.


Сучасна кібернетика - це мульти-дисциплінарна галузь науки, що досліджує надскладні системи, такі як:

Людське суспільство (соціальна кібернетика);

економіка (економічна кібернетика);

Живий організм (біологічна кібернетика);

Людський мозок та його функція – свідомість (штучний інтелект).


Інформатика, що сформувалася як наука в середині минулого століття, відокремилася від кібернетики та займається дослідженнями в галузі способів отримання, зберігання, передачі та обробки семантичної інформації. Обидві ці галузі використовують кілька основних наукових теорій. До них відносяться теорія інформації, та її розділи - теорія кодування, теорія алгоритмів та теорія автоматів. Дослідження смислового змісту інформації ґрунтуються на комплексі наукових теорій під загальною назвою семіотика. Теорія інформації - комплексна, в основному математична теорія, що включає опис та оцінки методів вилучення, передачі, зберігання та класифікації інформації. Розглядає носії інформації як елементи абстрактної (математичної) множини, а взаємодії між носіями як спосіб розташування елементів у цій множині. Такий підхід дає можливість формально описати код інформації, тобто визначити абстрактний код та дослідити його математичними методами. Для цих досліджень застосовує методи теорії ймовірностей, математичної статистики, лінійної алгебри, теорії ігор та інших математичних теорій.


Основи цієї теорії заклав американський учений Еге. Хартлі в 1928 р., який визначив міру кількості інформації деяких завдань зв'язку. Пізніше теорія була значно розвинена американським ученим До. Шенноном, російськими вченими А.Н. Колмогоровим, В.М Глушковим та ін. Сучасна теорія інформації включає в себе як розділи теорію кодування, теорію алгоритмів, теорію цифрових автоматів (див. нижче) та деякі інші. вченим М. Мазуром.C поняттям алгоритму знайомий будь-яка людина, навіть не підозрюючи про це. Ось приклад неформального алгоритму: «Помідори нарізати кружальцями чи часточками. Покласти в них нашатковану цибулю, полити олією, потім посипати дрібно нарізаним стручковим перцем, перемішати. Перед вживанням посипати сіллю, укласти салатник і прикрасити зеленню петрушки». (Салат з помідорів).


Перші в історії людства правила вирішення арифметичних завдань були розроблені одним із відомих вчених давнини Аль-Хорезмі в IX столітті нашої ери. На його честь формалізовані правила для досягнення будь-якої мети називають алгоритмами. Предметом теорії алгоритмів є знаходження методів побудови та оцінки ефективних (у тому числі й універсальних) обчислювальних та керуючих алгоритмів для обробки інформації. Для обгрунтування таких методів теорія алгоритмів використовує математичний апарат теорії інформації. Великий внесок у розвиток теорії алгоритмів зробили російські вчені А. Марков (Нормальний алгоритм Маркова) та А. Колмогоров.


Поняття автомата виникло теорії алгоритмів. Якщо існують деякі універсальні алгоритми розв'язання обчислювальних завдань, то повинні існувати і пристрої (нехай і абстрактні) для реалізації таких алгоритмів. Власне, абстрактна машина Тьюринга, що розглядається в теорії алгоритмів, є водночас і неформально певним автоматом. Теоретичне обґрунтування побудови таких пристроїв є предметом теорії автоматів. Теорія автоматів використовує апарат математичних теорій – алгебри, математичної логіки, комбінаторного аналізу, теорії графів, теорії ймовірностей та ін. керуючих систем. Семіотика - комплекс наукових теорій, що вивчають властивості знакових систем. Найбільш суттєві результати досягнуті у розділі семіотики – семантиці. Предметом досліджень семантики є змістове зміст інформації.


Знаковою системою вважається система конкретних чи абстрактних об'єктів (знаків, слів), з кожним у тому числі певним чином зіставлено деяке значення. Теоретично доведено, що таких зіставлень може бути два. Перший вид відповідності визначає безпосередньо матеріальний об'єкт, що означає це слово і називається денотат (або, у деяких роботах, – номінант). Другий вид відповідності визначає зміст знака (слова) і називається концептом. При цьому досліджуються такі властивості зіставлень як «сенс», «істинність», «визначність», «слідування», «інтерпретація» та ін. Для досліджень використовується апарат математичної логіки та математичної лінгвістики. Ідеї семантики, намічені ще Г. В. Ф де Соссюром в XIX столітті, сформулювали і розвинули Ч. Пірс (1839-1914), Ч. Морріс (р. 1901), Р. Карнап (1891-1970) та ін. Основним досягненням теорії є створення апарату семантичного аналізу, що дозволяє уявити зміст тексту природною мовою у вигляді запису деякою формалізованою семантичною (смисловою) мовою. Семантичний аналіз є основою для створення пристроїв (програм) машинного перекладу з однієї природної мови на іншу.

Зберігання інформації здійснюється з допомогою її перенесення деякі матеріальні носії. Семантична інформація, зафіксована на матеріальному носії для зберігання, називається документом. Зберігати інформацію людство навчилося дуже давно. У найдавніших формах зберігання інформації використовувалося розташування предметів - раковин та каміння на піску, вузликів на мотузці. Істотним розвитком цих методів стала писемність - графічне зображення знаків на камені, глині, папірусі, папері. Величезне значення у розвитку цього напряму мало винахід друкарства. За свою історію людство накопичило величезний обсяг інформації у бібліотеках, архівах, періодичних виданнях та інших письмових документах.


В даний час особливого значення набуло зберігання інформації у вигляді послідовностей двійкових символів. Для реалізації цих методів використовуються різноманітні пристрої. Вони є центральною ланкою систем зберігання інформації. Крім них у таких системах використовуються засоби пошуку інформації (пошукова система), засоби отримання довідок (інформаційно-довідкові системи) та засоби відображення інформації (пристрій виведення). Сформовані за призначенням інформації такі інформаційні системи утворюють бази даних, банки даних та база знань.

Передача семантичної інформації називається процес її просторового перенесення від джерела до одержувача (адресату). Передавати та отримувати інформацію людина навчилася навіть раніше, ніж зберігати її. Мова є способом передачі, який використовували наші далекі предки у безпосередньому контакті (розмові) – нею ми користуємось і зараз. Для передачі інформації на великі відстані необхідно використовувати значно складніші інформаційні процеси. Для здійснення такого процесу інформація повинна бути певним чином оформлена (представлена). Для представлення інформації використовуються різні знакові системи - набори заздалегідь обумовлених значеннєвих символів: предметів, картинок, написаних чи надрукованих слів природної мови. Подана з їх допомогою семантична інформація про якийсь об'єкт, явище або процес називається повідомленням.


Очевидно, що для передачі повідомлення на відстань інформація повинна бути перенесена на мобільний носій. Носії можуть переміщатися в просторі за допомогою транспортних засобів, як це відбувається з листами, що надсилаються поштою. Такий спосіб забезпечує повну достовірність передачі, оскільки адресат отримує оригінал повідомлення, проте вимагає значного часу передачі. З середини XIX століття набули поширення способи передачі інформації, що використовують природно поширюється носій інформації - електромагнітні коливання (електричні коливання, радіохвилі, світло). Реалізація цих способів вимагає:

Попереднього перенесення інформації, що міститься в повідомленні, носій - кодування;

Забезпечення передачі отриманого таким чином сигналу адресату спеціальним каналом зв'язку;

Зворотне перетворення коду сигналу на код повідомлення - декодування.

Використання електромагнітних носіїв робить доставку повідомлення адресату майже миттєвою, проте вимагає додаткових заходів щодо забезпечення якості (достовірності та точності) інформації, що передається, оскільки реальні канали зв'язку піддаються впливу природних і штучних перешкод. Пристрої, що реалізують процес передачі, утворюють системи зв'язку. Залежно від способу представлення інформації системи зв'язку можна поділяти на знакові (телеграф, телефакс), звукові (телефон), відео та комбіновані системи (телебачення). Найбільш розвиненою системою зв'язку нашого часу є Інтернет.

Обробка інформації

Оскільки інформація не матеріальна, її обробка полягає у різних перетвореннях. До процесів обробки можна віднести будь-які перенесення інформації з носія на інший носій. Інформація, що призначена для обробки, називається даними. Основним видом обробки первинної інформації, отриманої різними приладами, є перетворення на форму, що забезпечує її сприйняття органами почуттів людини. Так, фото космосу, отримані в рентгенівських променях, перетворюються на звичайні кольорові фотографії з використанням спеціальних перетворювачів спектра та фотоматеріалів. Прилади нічного бачення перетворюють зображення, одержуване в інфрачервоних (теплових) променях, зображення у видимому діапазоні. Для деяких завдань зв'язку та управління необхідно перетворення аналогової інформації. Для цього використовуються аналого-цифрові та цифро-аналогові перетворювачі сигналів.


Найважливішим видом обробки семантичної інформації є визначення змісту (змісту), що полягає у деякому повідомленні. На відміну від первинної семантична інформація немає статистичних характеристик, тобто кількісної міри - сенс чи є, чи його немає. А скільки його, якщо він є – встановити неможливо. Зміст, що міститься в повідомленні, описується штучною мовою, що відображає смислові зв'язки між словами вихідного тексту. Словник такої мови, що називається тезаурусом, знаходиться у приймачі повідомлення. Сенс слів та словосполучень повідомлення визначається шляхом їх віднесення до певних груп слів або словосполучень, зміст яких вже встановлено. Тезаурус, таким чином, дозволяє встановити зміст повідомлення і одночасно поповнюється новими смисловими поняттями. Описаний вид обробки інформації застосовується в інформаційно-пошукових системах та системах машинного перекладу.


Одним з поширених видів обробки інформації є рішення обчислювальних задач і завдань автоматичного управління за допомогою обчислювальних машин. Обробка інформації завжди проводиться з певною метою. Для її досягнення має бути відомий порядок дій над інформацією, що призводить до заданої мети. Такий порядок дій називається алгоритмом. Крім самого алгоритму необхідний деякий пристрій, що реалізує цей алгоритм. У наукових теоріях такий пристрій називається автоматом. Слід зазначити як найважливішу особливість інформації той факт, що через несиметричність інформаційної взаємодії при обробці інформації виникає нова інформація, а вихідна інформація не втрачається.

Аналогова та цифрова інформація

Звук це хвильові коливання в якомусь середовищі, наприклад, у повітрі. Коли людина говорить, коливання зв'язок горла перетворюються на хвильові коливання повітря. Якщо розглядати звук не як хвилю, а як коливання в одній точці, то ці коливання можна уявити, як тиск повітря, що змінюється в часі. За допомогою мікрофона можна вловити зміни тиску та перетворити їх на електричну напругу. Відбулося перетворення тиску повітря на коливання електричної напруги.


Таке перетворення може відбуватися за різними законами, найчастіше перетворення відбувається за лінійним законом. Наприклад, за таким:

U(t)=K(P(t)-P_0),

де U(t) – електрична напруга, P(t) – тиск повітря, P_0 – середній тиск повітря, а K – коефіцієнт перетворення.

І електрична напруга, і тиск повітря є безперервними функціями часу. Функції U(t) та P(t) є інформацією про коливання зв'язок горла. Ці функції безперервні і така інформація називається аналогової. Музика це окремий випадок звуку і її теж можна представити у вигляді якоїсь функції від часу. Це буде аналогова вистава музики. Але музику також записують у вигляді нот. Кожна нота має кратну тривалість заздалегідь заданої тривалості, і висоту (до, ре, мі, фа, сіль і т.д). Якщо ці дані перетворити на цифри, ми отримаємо цифрове представлення музики.


Людське мовлення, як і є окремим випадком звуку. Її теж можна уявити в аналоговому вигляді. Але як музику можна розбити на ноти, можна розбити на літери. Якщо кожній літері дати свій набір цифр, то ми отримаємо цифрове уявлення мови. Різниця між аналоговою інформацією та цифровою в тому, що аналогова інформація безперервна, а цифрова дискретна. Перетворення інформації з одного виду в інший залежно від роду перетворення називають по-різному просто "перетворення", наприклад, цифро-аналогове перетворення, або аналого-цифрове перетворення; складні перетворення називають "кодуванням", наприклад, дельта-кодування, ентропійне кодування; перетворення між такими характеристиками, як амплітуда, частота або фаза називають "модуляцією", наприклад, амплітудно-частотна модуляція, широтно-імпульсна модуляція.

Зазвичай аналогові перетворення досить прості і з ними легко справляються різні пристрої винайдені людиною. Магнітофон перетворює намагніченість на плівці на звук, диктофон перетворює звук на намагніченість на плівці, відеокамера перетворює світло на намагніченість на плівці, осцилограф перетворює електричну напругу або струм на зображення і т.д. Перетворення аналогової інформації на цифрову помітно складніше. Деякі перетворення машині здійснити не вдається або вдається насилу. Наприклад, перетворення мови в текст, або перетворення запису концерту в ноти, і навіть за своєю природою цифрове уявлення: текст на папері дуже важко машині перетворити в той же текст у пам'яті комп'ютера.

Навіщо тоді використовувати цифрове подання інформації, якщо воно так складно? Основне перевага цифрової інформації перед аналоговою це схибленість. Тобто в процесі копіювання інформації цифрова інформація копіюється так як є, її можна копіювати практично нескінченну кількість разів, аналогова інформація в процесі копіювання зашумляється, її якість погіршується. Зазвичай аналогову інформацію можна копіювати не більше трьох раз. погіршилася якість запису. Інформація на касеті зберігається у аналоговому вигляді. Музику у форматі mp3 Ви можете переписувати скільки завгодно, і якість музики від цього не погіршується. Інформація у файлі mp3 зберігається у цифровому вигляді.

Кількість інформації

Людина чи якийсь інший приймач інформації, отримавши порцію інформації, дозволяє деяку невизначеність. Візьмемо для прикладу все також дерево. Коли ми побачили дерево, ми дозволили низку невизначеностей. Ми дізналися висоту дерева, вид дерева, щільність листя, колір листя і, якщо це плодове дерево, ми побачили на ньому плоди, наскільки вони дозріли і т.п. До того як ми подивилися на дерево, ми цього не знали, після того як ми подивилися на дерево, ми дозволили невизначеність – отримали інформацію.


Якщо ми вийдемо на луг і подивимося на нього, то ми отримаємо інформацію іншого роду, наскільки луг великий, наскільки висока трава та якого кольору трава. Якщо на цей же самий луг вийде біолог, то він також зможе дізнатися: які сорти трав ростуть на лузі, якого типу цей луг, він побачить які квіти зацвіли, які тільки зацвітуть, чи придатний луг для випасу корів і т.п. Тобто, він отримає кількість інформації більше, ніж ми, оскільки в нього, перед тим як він подивився на луг, було більше запитань, чи біолог вирішить більшу кількість невизначеностей.

Чим більша невизначеність була дозволена у процесі отримання інформації, тим більше інформації ми отримали. Але це суб'єктивний захід кількості інформації, а нам хотілося б мати об'єктивний захід. Існує формула до розрахунку кількості інформації. Ми маємо деяку невизначеність, і у нас існує N-а кількість випадків вирішення невизначеності, і кожен випадок має деяку ймовірність дозволу, тоді кількість отриманої інформації можна розрахувати за такою формулою, яку запропонував нам Шеннон:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), де

I – кількість інформації;

N – кількість наслідків;

p_1, p_2, ..., p_N- ймовірності результату.

Кількість інформації вимірюється в бітах – скорочення від англійських слів Binary digiT, що означає двійкова цифра.

Для рівноймовірних подій формулу можна спростити:

I = \ log_ (2) N, де

I – кількість інформації;

N – кількість наслідків.

Візьмемо, наприклад, монету і кинемо її на стіл. Вона впаде або орлом, або рішкою. У нас є 2 рівноймовірні події. Після того, як ми кинули монетку, ми отримали \log_(2)2=1 біт інформації.

Спробуємо дізнатися, скільки інформації ми отримаємо після того, як кинемо кубик. У кубика шість граней – шість рівноймовірних подій. Отримуємо: \log_(2)6 \approx 2,6. Після того, як ми кинули кубик на стіл, ми отримали приблизно 2,6 біт інформації.


Імовірність того, що ми побачимо марсіанського динозавра, коли вийдемо з дому, дорівнює одній десятимільярдній. Скільки інформації ми отримаємо про марсіанського динозавра після того, як вийдемо з дому?

-\left(((1 \over (10^(10)))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10)))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \approx 3,4 \cdot 10^(-9) біта.

Припустимо, що ми залишили 8 монет. Ми маємо 2^8 варіантів падіння монет. Отже, після кидка монет ми отримаємо \log_2(2^8)=8 біт інформації.

Коли ми ставимо питання і можемо однаково отримати відповідь «так» чи «ні», то після відповіді питання ми отримуємо один біт інформації.


Дивно, що якщо застосувати формулу Шеннона для аналогової інформації, ми отримаємо нескінченну кількість інформації. Наприклад, напруга в точці електричного ланцюга може набувати рівноймовірного значення від нуля до одного вольта. Кількість наслідків у нас дорівнює нескінченності і, підставивши це значення у формулу для рівноймовірних подій, ми отримаємо нескінченність – нескінченну кількість інформації.

Зараз я покажу, як закодувати «Війну і мир» за допомогою лише однієї ризики на будь-якому металевому стрижні. Закодуємо всі літери та знаки, що зустрічаються у «Війні та мир», за допомогою двозначних цифр – їх має нам вистачити. Наприклад, букві "А" дамо код "00", букві "Б" - код "01" і так далі, закодуємо розділові знаки, латинські букви і цифри. Перекодуємо «Війну і мир» за допомогою цього коду і отримаємо довге число, наприклад, таке 70123856383901874..., намалюємо перед цим числом кому і нуль (0,70123856383901874...). Вийшло число від нуля до одиниці. Поставимо ризику на металевому стрижні так, щоб відношення лівої частини стрижня до довжини цього стрижня дорівнювало якраз нашому числу. Таким чином, якщо раптом нам захочеться почитати «Війну і мир», ми просто виміряємо ліву частину стрижня до ризику і довжину всього стрижня, поділимо одне число на інше, отримаємо число та перекодуємо його назад у літери («00» у «А», "01" в "Б" і т.д.).

Реально таке зробити нам не вдасться, тому що ми не зможемо визначати довжини з нескінченною точністю. Збільшувати точність виміру нам заважають деякі інженерні проблеми, а квантова фізика нам показує, що після певної межі, нам вже заважатиме квантові закони. Інтуїтивно нам зрозуміло, що чим менша точність виміру, тим менше інформації ми отримуємо, і чим більша точність виміру, тим більше інформації ми отримуємо. Формула Шеннона не підходить для вимірювання кількості аналогової інформації, але для цього існують інші методи, що розглядаються в «Теорії інформації». У комп'ютерній техніці біт відповідає фізичному стану носія інформації: намагнічено – не намагнічено, є отвір – немає отвору, заряджено – не заряджено, відбиває світло – не відбиває світло, високий електричний потенціал – низький електричний потенціал. У цьому одне стан прийнято позначати цифрою 0, інше – цифрою 1. Послідовністю бітів можна закодувати будь-яку інформацію: текст, зображення, звук тощо.


Нарівні з бітом часто використовується величина звана байтом, зазвичай вона дорівнює 8 бітам. І якщо біт дозволяє вибрати один рівноймовірний варіант із двох можливих, то байт - 1 із 256 (2^8). Для вимірювання кількості інформації також прийнято використовувати більші одиниці:

1 Кбайт (один кілобайт) 210 байт = 1024 байта

1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

1 Гбайт (один гігабайт) 210 Мбайт = 1024 Мбайта

Реально приставки СІ кіло-, мега-, гіга-мають використовуватися для множників 10^3, 10^6 і 10^9, відповідно, але історично склалася практика використання множників зі ступенями двійки.


Біт по Шеннону і біт, який використовується в комп'ютерній техніці, збігаються, якщо ймовірність появи нуля або одиниці в комп'ютерному биті дорівнює. Якщо ймовірності не рівні, то кількості інформації по Шеннону стає менше, це ми побачили на прикладі марсіанського динозавра. Комп'ютерна кількість інформації дає найвищу оцінку кількості інформації. Енергозалежна пам'ять після подачі на неї живлення ініціалізується зазвичай якимось значенням, наприклад, всі одиниці або всі нулі. Зрозуміло, що після подачі харчування на згадку, ніякої інформації там немає, оскільки значення в осередках пам'яті суворо визначені, ніякої невизначеності немає. Пам'ять може зберігати в собі певну кількість інформації, але після подачі на неї живлення жодної інформації в ній немає.

Дезінформація - свідомо неправдива інформація, що надається противнику або діловому партнеру для більш ефективного ведення бойових дій, співпраці, перевірки на витік інформації та напрямок її витоку, виявлення потенційних клієнтів чорного ринку. Також дезінформацією (також дезінформовані) називається сам процес маніпулювання інформацією, введення будь-кого в оману шляхом надання неповної інформації або повної, але вже не потрібної інформації, спотворення контексту, спотворення частини інформації.


Мета такого впливу завжди одна – опонент повинен вчинити так, як це необхідно маніпулятору. Вчинок об'єкта, проти якого спрямована дезінформація, може полягати у прийнятті потрібного маніпулятора рішення або відмовитися від прийняття невигідного для маніпулятора рішення. Але в будь-якому випадку кінцева мета - це дія, яка буде здійснена опонентом.

Дезінформація, таким чином, - це продукт діяльності людини, спроба створити хибне враження і, відповідно, підштовхнути до бажаних дій та/або бездіяльності.

Види дезінформації:

Введення в оману конкретної особи або групи осіб (у тому числі цілої нації);

Маніпулювання (вчинками однієї людини або групи осіб);

Створення громадської думки щодо якоїсь проблеми чи об'єкта.

Введення в оману - це нічим іншим, як прямий обман, надання хибної інформації. Маніпулювання - це спосіб впливу, спрямований безпосередньо на зміну напряму активності людей. Вирізняють такі рівні маніпулювання:

Посилення існуючих у свідомості людей, вигідних маніпулятору цінностей (ідей, установок);

Часткова зміна поглядів на ту чи іншу подію чи обставину;

Кардинальна зміна життєвих установок.

Створення громадської думки – це формування у суспільстві певного ставлення до обраної проблеми.


Джерела та посилання

ru.wikipedia.org – вільна енциклопедія Вікіпедія

youtube.com - відеохостинг ютуб

images.yandex.ua - картинки яндекс

google.com.ua - картинки гугл

ru.wikibooks.org - вікіпідручник

inf1.info – Планета Інформатики

old.russ.ru – Російський Журнал

shkolo.ru - Інформаційний довідник

5byte.ru – Сайт інформатики

ssti.ru – Інформаційні технології

klgtu.ru - Інформатика

informatika.sch880.ru – сайт вчителя інформатики О.В. Підвінцевий

bibliofond.ru - електронна бібліотека Бібліофонд

life-prog.ru - програмування

 

Будь ласка, поділіться цим матеріалом у соціальних мережах, якщо він виявився корисним!