Головна

Інформація, її уявлення і вимір

  1. II. Початкове фундаментальне уявлення: діяльність - система
  2. А) Збір, впорядкування, уявлення матеріалу
  3. Бідність і нерівність, їх вимір.
  4. Бездоганна ПОДАННЯ
  5. Біноміальний розподіл і вимір ймовірностей
  6. В 4. Представлення результатів одноразових вимірювань
  7. Векторне подання коливань (векторна діаграма)

Олександр Левітас - незалежний бізнес-консультант і бізнес-тренер з Ізраїлю. Закінчив Академію реклами та копірайтингу під керівництвом Тірци Гранот, легенди ізраїльського рекламного бізнесу.

Автор численних публікацій на теми реклами, маркетингу та організації бізнесу в російських і зарубіжних періодичних виданнях. Випускає безкоштовну електронну розсилку «Більше грошей від Вашого бізнесу!», Яка була визнана кращою розсилкою про маркетинг і рекламу, а також розсилки «Школа продажів» і «Чому Ваш бізнес-сайт не працює?»

Проводить виїзні семінари і веде дистанційні курси по партизанському (маловитратних) маркетингу, по збільшенню прибутковості бізнесу і з побудови «людських машин».

Персональний сайт Олександра знаходиться за адресою www.levitas.ru

Інформація, її уявлення і вимір

Інформатика - це наука про інформаційні процеси, про моделі, про алгоритми і алгоритмізації, про програми та програмуванні, про виконавців алгоритмів і різних виконуючих системах про їх використання в суспільстві, в природі, в пізнанні [1].

Можна відзначити три основні гілки інформатики: теоретичну, практичну і технічну. Відзначимо, що поділ інформатики як науки і людської діяльності на ті чи інші частини залежить від цілей, завдань, ресурсів даної проблеми і часто воно буває умовним.

Теоретична інформатика (brainware, "мозковий" забезпечення) вивчає теоретичні проблеми інформаційних середовищ.

Практична, прикладна інформатика (software, "гнучке", програмне забезпечення) вивчає практичні проблеми інформаційних середовищ.

Технічна інформатика (hardware, "важкий", апаратне забезпечення) вивчає технічні проблеми інформаційних середовищ.

приклад. Завдання побудови математичної моделі прогнозу кредитного ризику банку - це завдання теоретичної інформатики та економіки.

Побудова алгоритму прогнозу по цій моделі - завдання теоретичної інформатики.

Розробка комп'ютерної програми (комплексу програм) для прогнозу ризику - завдання практичної інформатики.

Часто (особливо, в області практичної інформатики) говорять про предметну інформатики, наприклад, про медичної інформатики, фізичної інформатики, комп'ютерної фізики і т.д.

Предметна область науки "інформатика" - інформаційні системи, моделі, мови їх опису, технології їх актуалізації.

Інформатика, як і математика, є наукою для опису і дослідження проблем інших наук. Вона допомагає прокладати і посилювати міждисциплінарні зв'язки, досліджувати проблеми різних наук за допомогою своїх ідей, методів, технологій.

поняття "Інформація" має різні трактування в різних предметних областях. наприклад, інформація може розумітися як:

Розглянемо фундаментальне поняття інформатики на основі поняття "Алфавіт" . Дамо формальне визначення алфавіту.

алфавіт- Кінцеве безліч різних знаків, символів, для яких визначена операція конкатенації (Приєднання символу до символу або ланцюжку символів); з її допомогою за певними правилами з'єднання символів і слів можна отримувати слова (ланцюжки знаків) і словосполучення (ланцюжки слів) в цьому алфавіті (над цим алфавітом).

буквою або знаком називається будь-який елемент x алфавіту X, де  . Поняття знака нерозривно пов'язано з тим, що ним позначається ("зі змістом"), вони разом можуть розглядатися як пара елементів (x, y), де x - сам знак, а y - позначається цим знаком.

Приклад. приклади алфавітів: Безліч з десяти цифр, безліч з знаків російської мови, точка і тире в азбуці Морзе та ін.

Кінцева послідовність букв алфавіту називається словом в алфавіті (Або над алфавітом).

Довжиною | p | деякого слова p над алфавітом Х називається число складових його символів.

слово (Позначається символом O) має нульову довжину, Називається порожнім словом: | O | = 0.

безліч різних слів над алфавітом X позначимо через S (X) і назвемо словниковим запасом (словником) алфавіту (над алфавітом) X.

На відміну від кінцевого алфавіту, Словниковий запас може бути і нескінченним.

слова над деяким заданим алфавітом визначають повідомлення.

приклад. слова над алфавітом десяткових цифр і знаків арифметичних операцій - "1256", "23 + 78", "35-6 + 89", "4".

В алфавіті повинен бути визначений порядок проходження символів алфавіту, тобто будь-який алфавіт має упорядкований вигляд X = {x1, x2, ..., Xn}.

Таким чином, алфавіт повинен дозволяти вирішувати задачу лексикографічного (алфавітного) упорядкування.

інформація- Це деяка упорядкована послідовність повідомлень, що мають конкретний зміст.

інформація актуалізується за допомогою різної форми повідомлень - Певного виду сигналів, символів.

інформація по відношенню до джерела або приймача буває трьох типів: вхідна, вихідна і внутрішня.

інформація по відношенню до кінцевого результату буває вихідна, проміжна і результуюча.

інформація по стадії її використання буває первинна та вторинна.

інформація по її повноті буває надлишкова, достатня і недостатня.

інформація щодо доступу до неї буває відкрита і закрита.

Є й інші типи класифікації інформації.

Основні властивості інформації:

Інформацію можна трактувати як зміст повідомлення.

Повідомлення - форма інформації.

будь-які повідомлення вимірюються в байтах, кілобайтах, мегабайтах, гигабайтах, Терабайт і т.д., а кодуються в комп'ютері за допомогою алфавіту з нулів і одиниць, тобто записуються і реалізуються в ЕОМ в бітах.

Наведемо основні співвідношення між одиницями вимірювання повідомлень:

1 біт (Binary digit- двійковечисло) = 0 або 1,

1 байт = 8 біт,

1 кілобайт (1Кб) = 213біт,

1 мегабайт (1Мб) = 223біт,

1 гігабайт (1Гб) = 233 біт,

1 терабайт (1Тб) = 243 біт,

приклад. Знайти невідомі х і у, якщо задані співвідношення:

128y (КБ) = 32x (біт);

2x (Мб) = 2y (байт).

Рішення. Вирівнюємо одиниці виміру інформації:

128y (КБ) = 27y (K) = 27y * 213(біт) = 27y + 13 (біт) = 2(біт);

5х = 7y + 13.

2x (Мб) = 2х  * 223(Біт) = 2х + 20 (Байт) = 2y (байт).

x + 20 = y.

Звідси отримуємо систему двох алгебраїчних рівнянь:

Вирішуючи цю систему, остаточно отримуємо, x = -76,5, у = -56,5.

Для виміру інформації використовуються різні підходи і методи, наприклад, з використанням заходи інформації по Р. Хартлі і К. Шеннон.

кількість інформації - Число, адекватно характеризує різноманітність (структурованість, визначеність, вибір станів і т.д.) в оцінюваної системі. Кількість інформації часто оцінюється в бітах, Причому така оцінка може виражатися і в частках біт (Так як мова йде не про вимірювання або кодуванні повідомлень).

міра інформації- Критерій оцінки кількості інформації. Зазвичай вона задана деякою неотрицательной функцією, визначеною на безлічі подій і є адитивною, тобто міра кінцевого об'єднання подій (множин) дорівнює сумі заходів кожної події.

Розглянемо різні заходи інформації. Спочатку розглянемо загальні міру Р. Хартлі.

Нехай відомі N станів системи S (N - число дослідів з різними, рівноможливими, послідовними станами системи). Якщо кожне стан системи закодувати двійковими кодами, то довжину коду dнеобхідно вибрати так, щоб число всіх різних комбінацій було б не менше, ніж N:

Логаріфміруя це нерівність, можна записати:

Найменша рішення цієї нерівності або міра різноманітності безлічі станів системи і задається формулою Р. Хартлі:

H = log2N (біт).

Якщо в безлічі X = {x1, x2, ..., Xn} Шукати довільний елемент, то для його знаходження (по Хартлі) необхідно мати не менше log2n (одиниць) інформації.

Зменшення Н говорить про зменшення різноманітності станів N системи.

Збільшення Н говорить про збільшення різноманітності станів N системи.

Міра Хартлі підходить лише для ідеальних, абстрактних систем, так як в реальних системах стану системи не різновірогідні.

Для таких систем використовують міру К. Шеннона.

Міра Шеннона оцінює інформацію абстрактно від її змісту:

де n - число станів системи; рi - Ймовірність (відносна частота) переходу системи в i-е стан (сума всіх pi повинна дорівнювати 1).

Якщо все стану даної системи одно можливі, різновірогідні, тобто рi = 1 / n, то з формули Шеннона можна отримати (як окремий випадок) формулу Хартлі:

I = log2n,

виробляючи нехитрі алгебраїчні дії:

приклад. Якщо положення точки в системі з 10 клітин відомо, наприклад якщо точка знаходиться тільки в одній - у другій клітці, тобто

рi = 0, i = 1, 3, 4, ..., 10, р2 = 1,

то тоді отримуємо кількість інформації, рівне нулю:

I = log21 = 0.

Введемо величину:

fi = -nlog2pi.

У термодинаміки відомий так званий коефіцієнт Больцмана

k = 1.38 * 10-16 (Ерг / град)

і вираз (формула Больцмана) Для ентропії або заходи хаосу в термодинамічної системи:

Порівнюючи вирази для I і S, можна зробити висновок, що величину I можна розуміти як ентропію через брак інформації в системі (про систему).

Основне функціональне співвідношення між ентропією і інформацією має вигляд:

I + S (log2e) / k = const.

З цієї формули випливають важливі висновки:

1. Збільшення заходи Шеннона свідчить про зменшення ентропії (збільшення порядку) системи;

2. Зменшення заходи Шеннона свідчить про збільшення ентропії (збільшення безладу) системи.

Позитивна сторона формули Шеннона - Її абстрактність від сенсу інформації. Крім того, на відміну від формули Хартлі, Вона враховує відмінність станів, що робить її придатною для практичних обчислень. Основна негативна сторона формули Шеннона - Вона не розпізнає різні стану системи з однаковою ймовірністю.

методи отримання інформації можна розбити на три великі групи.

1. Емпіричні методи або методи отримання емпіричних даних.

2. Теоретичні методи або методи побудови різних теорій.

3. Емпірико-теоретичні методи (змішані) або методи побудови теорій на основі отриманих емпіричних даних про об'єкт, процес, явище.

Охарактеризуємо коротко емпіричні методи.

1. спостереження - Збір первинної інформації про об'єкт, процес, явище.

2. порівняння - Виявлення і співвіднесення загального і різного.

3. Вимірювання - Пошук за допомогою вимірювальних приладів емпіричних фактів.

4. експеримент - Перетворення, розгляд об'єкта, процесу, явища з метою виявлення якихось нових властивостей.

Крім класичних форм їх реалізації, останнім часом використовуються опитування, інтерв'ю, тестування та інші.

Охарактеризуємо коротко емпірико-теоретичні методи отримання інформації:

1. абстрагування - Виділення найбільш важливих для дослідження властивостей, сторін досліджуваного об'єкта, процесу, явища і ігнорування несуттєвих і другорядних.

2. аналіз - Роз'єднання цілого на частини з метою виявлення їх зв'язків.

3. декомпозиція - Роз'єднання цілого на частини зі збереженням їх зв'язків з оточенням.

4. синтез - З'єднання частин в ціле з метою виявлення їх взаємозв'язків.

5. композиція - З'єднання частин цілого зі збереженням їх взаємозв'язків з оточенням.

6. індукція - Отримання знання про цілий за знаннями про частинах.

7. дедукція - Отримання знання про частини за знаннями про ціле.

8. Евристики, використання евристичних процедур - Отримання знання про цілий за знаннями про частинах і за спостереженнями, досвіду, інтуїції, передбачення.

9. Моделювання (просте моделювання), Використання приладів - отримання знання про цілий або про його частинах за допомогою моделі або приладів.

10. логічний метод- Пошук знань шляхом відтворення частин, зв'язків або елементів в мисленні.

11. макетування- отримання інформації по макету, поданням частин в спрощеному, але цілісному вигляді.

12. актуалізація- отримання інформації за допомогою переведення цілого або його частин (а отже, і цілого) із статичного стану в динамічний стан.

13. візуалізація- отримання інформації за допомогою наочного або візуального представлення станів об'єкта, процесу, явища.

Крім зазначених класичних форм реалізації теоретико-емпіричних методів часто використовуються і моніторинг (система спостережень і аналізу станів), ділові ігри та ситуації, експертні оцінки (експертне оцінювання), імітація (наслідування) та інші форми.

Інформаційна система - Це система, в якій елементи, структура, мета, ресурси розглядаються на інформаційному рівні.

інформаційне середовище - Це середовище (система і її оточення) з взаємодіючих інформаційних систем, включаючи інформацію, Що актуалізується в цих системах.

Інформатику можна визначити як науку, що вивчає незмінні сутності (інваріанти) інформаційних процесів, які протікають в різних предметних областях, в суспільстві, в пізнанні, в природі.




Загальна характеристика процесів передачі інформації | Кодування та шифрування інформації | При кодуванні немає такого секретного ключа, так як кодування ставить за мету лише більш стислий, компактне представлення повідомлення. | Комп'ютерні віруси | Моделі і моделювання | Основні властивості моделі і моделювання | Класифікація видів моделювання | Комп'ютерне моделювання | Функції алгебри логіки | дистрибутивність |

© 2016-2022  um.co.ua - учбові матеріали та реферати