Вперше почувши вираз "інформаційний вік", я серйозно задумався. Я знав про залізну і бронзовому століттях - історичних періодах, названих так за тим новим матеріалам, з яких тоді робили інструменти і зброю. Тут все зрозуміло. Але ось я читаю пророцтва вчених про те, що скоро держави будуть боротися за контроль над інформацією, а не над природними ресурсами. Звучить дуже привабливо, але що мається на увазі під "інформацією"?
Твердження про те, що майбутнє за інформацією, нагадало мені знамениту сцену з фільму Thе Grаduаtе (Випускник), що вийшов на екрани в 1967 році. Якийсь бізнесмен чіпає за ґудзик Бенджамена, випускника коледжу (його грав Дастін Хофман), і вимовляє лише одне слово: "Пластмаси". Так він напучує молодої людини на початку його кар'єри. Цікаво, якщо б цю сцену написали кілька десятиліть тому, не сказав би той бізнесмен інакше: "Інформація"?!
Уявляю, які абсурдні розмови могли б вестися в діловому світі: "Скільки у Вас інформації?" "Швейцарія - велика країна, у них стільки інформації!", "Я чув, індекс вартості інформації пішов вгору!" Абсурдні вони тому, що інформація, хоча і відіграє все більш значущу роль у нашому житті, не є чимось матеріальним і не піддається точному вимірюванню, як матеріали - "особи" колишніх епох.
Інформаційна революція тільки починається. Засоби зв'язку неминуче подешевшають - так само різко, як у свій час обчислювальна техніка. Коли їх вартість досить знизиться і "срезонирует" з іншими досягненнями технології, завзяті адміністратори і нервові політики перестануть згадувати вираз "інформаційна магістраль" просто тому, що воно модно і престижно. Магістраль стане реальністю і, як електрика, викличе далекосяжні наслідки. Щоб зрозуміти, чому інформація стає і центр всього і вся, важливо зрозуміти, як технологія змінює способи її обробки.
Про це головним чином і піде мова в даній главі. Слабо підготовлені читачі, які не знають принципів роботи обчислювальної техніки та історії її розвитку, отримають необхідний мінімум відомостей, щоб продовжити читання книги. А якщо Ви знаєте, як працюють цифрові комп'ютери, можете спокійно перегорнути кілька сторінок і перейти відразу до третьої главі.
Найбільша фундаментальна риса інформації в майбутньому - майже вся вона стане цифровим. Вже зараз у багатьох бібліотеках друковані матеріали сканують і зберігають як електронні дані на звичайних або на компакт-дисках. Газети і журнали тепер часто готують в електронній формі, а друкують на папері тільки для розповсюдження. Електронну інформацію можна зберігати вічно - або стільки, скільки потрібно - в комп'ютерних базах даних. Гігантські обсяги репортерської інформації легко доступні через оперативні служби. Фотографії, фільми і відеозапису теж перетворяться в цифрову інформацію. З кожним роком удосконалюються методи збору інформації і перетворення її у квадрильйонів крихітних пакетів даних. Як тільки цифрова інформація міститься в те чи інше сховище", будь-який, у кого є персональний комп'ютер і засоби доступу до баз даних, може миттєво звернутися до неї і використовувати її на свій розсуд. Характерна особливість нашого періоду історії якраз в тому і полягає, що інформацію ми змінюємо і обробляємо абсолютно новими способами і набагато швидше. Поява комп'ютерів, "швидко і дешево" обробляють і передають цифрові дані, обов'язково призведе до трансформації звичайних засобів зв'язку у будинках та офісах.
Ідея застосовувати для маніпуляцій з числами який-небудь інструмент не нова. До 1642 року, коли дев'ятнадцятирічний французький учений Блез Паскаль винайшов механічний рахунковий пристрій - підсумовуючу машину, в Азії вже майже 5000 років користувалися рахунками. Три десятиліття потому німецький математик Готфрід Лейбніц удосконалив конструкцію машини Паскаля. Його "кроковий обчислювач" дозволяв множити, ділити і обчислити квадратні корені. Вельми надійні механічні арифмометри, напхані шестерінками і набірними лічильниками, спадкоємці крокового обчислювача, служили головною опорою бізнесу аж до їхньої заміни електронними аналогами. Наприклад, касові апарати в роки мого дитинства, по суті, були арифмометрами з відділеннями для готівки.
Більше півтора століть назад відомого британського математика осяяла геніальна ідея, яка прославила його ім'я вже при житті. Чарльз Беббидж (Chаrlеs Bаbbаgе), професор математики Кембриджського університету, зрозумів, що можна побудувати механічний пристрій, здатний виконувати послідовність взаємопов'язаних обчислень, - свого роду комп'ютер! Десь на початку тридцятих років минулого століття він прийшов до висновку, що машина зможе маніпулювати інформацією, якщо тільки ту вдасться перетворити на числа. Беббидж бачив машину, що приводиться в дію парою, що складається з штифтів, зубчастих коліс, циліндрів та інших механічних частин - загалом, справжнє дітище починався тоді індустріального століття. По думці Беббіджа, "аналітична машина" повинна була позбавити людство від монотонних обчислень і помилок, з ними пов'язаних.
Для опису пристрою машини йому, звичайно, не вистачало термінів - тих, якими ми користуємося сьогодні. Центральний процесор, або "робочі нутрощі" цієї машини, він називав "млином", а пам'ять - "сховищем". Беббиджу здавалося, що інформацію буде обробляти так само, як бавовна: подавати зі складу (сховища) і перетворювати у щось нове.
Аналітична машина замислювалася як механічна, але вчений передбачав, що вона зможе слідувати варійованих наборів інструкцій і тим самим служити різним цілям. В тому і сенс програмного забезпечення. Сучасна програма - це значний набір правил, за допомогою яких машину "інструктують", як вирішувати ту чи іншу задачу. Беббидж розумів, що для введення таких інструкцій потрібен абсолютно новий тип мови, і він винайшов його, використавши цифри, літери, стрілки та інші символи. Ця мова дозволив би "програмувати" аналітичну машину довгими серіями умовних інструкцій, що, в свою чергу, дозволило б машині реагувати на зміну ситуації. Він - перший, хто побачив, що одна машина здатна виконувати різні функції.
Наступне століття вчені математики працювали над ідеями, висловленими Беббиджем, і до середини сорокових років нашого століття електронний комп'ютер нарешті був побудований на основі принципів аналітичної машини. Творців сучасного комп'ютера виділити важко, оскільки всі дослідження проводилися під час другої світової війни під покровом повної секретності, головним чином - у Сполучених Штатах і Великобританії. Основний внесок внесли три людини: Алан Тьюринг (Alаn Тьюринга), Клод Шеннон (Clаudе Shаnnоn) і Джон фон Нейман (Jоhn vоn Nеumаnn).
В середині тридцятих років Алан Тьюринг - блискучий британський математик, як і Беббидж, який отримав освіту у Кембриджі, запропонував свій варіант універсальної обчислювальної машини, яка могла б в залежності від конкретних інструкцій працювати практично з будь-яким видом інформації. Сьогодні вона відома як машина Тьюринга.
А в кінці тридцятих Клод Шеннон, тоді ще студент, довів, що машина, яка виконує логічні інструкції, може маніпулювати інформацією. У своїй магістерській дисертації він розглянув, як за допомогою електричних ланцюгів комп'ютера виконувати логічні операції, де одиниця - "істина" (ланцюг замкнута), а нуль - "false" (розімкнути ланцюг).
Тут мова йде про двійковій системі числення, інакше кажучи, про коді. Двійкова система - це азбука електронних комп'ютерів, основа мови, на яку перекладається і з допомогою якого зберігається і використовується вся інформація в комп'ютері. Ця система дуже проста і в той же час настільки важлива для розуміння того, як працюють комп'ютери, що, мабуть, варто на цьому зупинитися.
Уявіть, що у Вашій кімнаті повинна горіти лампа потужністю в 250 ватт. Однак Ви хочете регулювати освітлення від 0 ватт (повна темрява) до максимуму. Один із способів добитися цього - скористатися вимикачем з регулятором. Щоб погасити лампу, Ви повертаєте ручку проти годинникової стрілки у положення "викл" (0 ватт), а щоб включити її "на всю котушку", - за годинниковою стрілкою до упору (250 вт). Ну а щоб домогтися напівтемряви або просто зменшити яскравість, Ви встановлюєте регулятор в якесь проміжне положення.
Така система проста, але має свої обмеження. Якщо регулятор знаходиться в проміжному положенні - скажімо, Ви приглушили світло для вечері в інтимній обстановці, - залишиться лише гадати, який зараз рівень освітлення. Вам не відомо ні те, яку потужність "бере" лампа в даний момент, ні те, як точно описати налаштування регулятора. Ваша інформація приблизна, що ускладнює її збереження і відтворення.
Раптом на наступному тижні Вам захочеться створити те ж освітлення? Звичайно, можна поставити позначку на шкалі регулятора, але навряд чи це вийде точно. А що робити, якщо знадобиться відтворити іншу налаштування? Чи хтось прийде до Вас у гості і захоче відрегулювати світло? Припустимо, Ви скажете: "Поверни ручку приблизно на п'яту частину за годинниковою стрілкою або "Поверни ручку, поки стрілка не виявиться приблизно на дві години". Однак те, що зробить Ваш гість, буде лише приблизно відповідати Вашої налаштуванні. А може статися і так, що Ваш друг передасть цю інформацію своєму знайомому, а той - ще кому-небудь. При кожній передачі інформації шанси на те, що вона залишиться точною, зменшуються.
Це був приклад інформації, збереженої в "аналоговому" вигляді. Положення ручки регулятора відповідає рівню освітлення. Якщо ручка повернута наполовину, можна припустити, що і лампа буде горіти вполнакала. Вимірюючи або описуючи те, наскільки повернена ручка, Ви насправді зберігаєте інформацію не про рівень освітлення, а про його аналогу - положенні ручки. Аналогову інформацію можна накопичувати, зберігати й відтворювати, але вона неточна і, що гірше, при кожній передачі стає все менш точною.
Тепер розглянемо аналоговий, а цифровий метод зберігання і передачі інформації. Будь-який вид інформації можна перетворити на числа, користуючись тільки нулями і одиницями. Такі числа (що складаються з нулів і одиниць), називаються двійковими. Кожен нуль або одиниця - це біт. Отриману таким чином інформацію можна передати комп'ютерів і зберігати в них як довгі рядки біт. Ці-то числа і маються на увазі під "цифровою інформацією".
Нехай замість однієї 250-ватної лампи у Вас буде 8 ламп, кожна з яких у 2 рази потужніше попередньої - від 1 до 128 ват. Крім того, кожна лампа з'єднана зі своїм вимикачем, причому сама слабка розташована праворуч.
Включаючи і вимикаючи ці вимикачі, Ви регулюєте рівень освітленості з кроком в 1 ват від нуля (всі вимикачі вимкнені) до 255 ватт (все включено), що дає 256 можливих варіантів. Якщо Вам потрібен 1 ватт, Ви включаєте тільки самий правий вимикач, і спалахує 1-ватна лампа. Для 2 ват Ви запалюєте 2-ватну лампу. Якщо Вам потрібно 3 ватта, Ви включаєте 1 - і 2-ватну лампи, оскільки 1 плюс 2 дає бажані 3 ватта. Хочете 4 вата, увімкніть 4-ватну лампу, 5 ват - 4 - й 1-ватну лампи, 250 ватт - всі, крім 4 - й 1-ватної ламп.
Якщо Ви вважаєте, що для вечері ідеально підійде освітлення в 137 ват, увімкніть 128-, 8 - і 1-ватну лампи.
Така система забезпечує точну запис рівнів освітленості для використання в майбутньому або передачі іншим, у кого в кімнаті аналогічний порядок підключення ламп. Оскільки спосіб запису двійкової інформації універсальний (молодші розряди справа, старші - зліва, кожна наступна позиція подвоює значення розряду), немає потреби вказувати потужність конкретних ламп. Ви просто визначаєте стан вимикачів: "вкл-викл-викл-викл-вкл-викл-викл-вкл". Маючи таку інформацію, Ваш знайомий точно відрегулює освітлення в кімнаті на 137 ват. По суті, якщо кожен буде уважний, це повідомлення без спотворень пройде через мільйони рук і на кінці ланцюжка хтось отримає початковий результат - 137 ват.
Щоб ще більше скоротити позначення, можна замінити "викл" нулем (0), а "вкл" - одиницею (1).
Тим самим замість "вкл-викл-викл-викл-вкл-викл-викл-вкл" (маючи на увазі, що треба включити першу, п'яту і восьму лампи, а решта вимкнути), Ви запишете те ж саме інакше: 1, 0, 0, 0, 1, 0, 0, 1 або двійковим числом 10001001. Воно одно десятичному 137. Тепер Ви скажете своєму знайомому: "Я підібрав чудове освітлення! 10001001. Спробуй". І він точно відтворить Вашу налаштування, запалюючи і гасячи відповідні лампи.
Може здатися, що цей спосіб занадто складний для опису яскравості ламп, але він ілюструє теорію двійкового подання інформації, що лежить в основі будь-якого сучасного комп'ютера.
Двійкове подання чисел дозволяє складання чисел дозволяє створювати калькулятори, користуючись перевагами електричних ланцюгів. Саме так і вчинила під час другої світової війни група математиків з Мооге Sсhооl of Elесtriсаl Епдіпеегіпд при Пенсільванському університеті, очолювана Дж. Преспером Еккертом (J. Prеsреr Eсkеrt) і Джоном Моучли (Jоhn Mаuсhly), почавши розробку електронно-обчислювальної машини ENIAC (Elесtrоniс Numеriсаl Intеgrаtоr And Cаlсulаtоr - електронний числовий інтегратор і обчислювач). Перед вченими поставили мету - прискорити розрахунки таблиць для наведення артилерії. ENIAC більше скидався на електронний калькулятор, ніж на комп'ютер, але двійкові числа представляли вже не примітивними коліщатками, як у арифмометрів, а електронними лампами - "перемикачами".
Солдати, приписані до цієї величезній машині, постійно носилися навколо неї, скриплячи візками, доверху набитими електронними лампами. Варто перегоріти хоча б одній лампі, як ЕНІАК тут же вставав і починалася метушня: всі спішно шукали згорілу лампу. Однією з причин - можливо, і не надто достовірною - настільки частої заміни ламп вважалася така: їх тепло і світло приваблюють метеликів, які залітають всередину машини і викликають коротке замикання. Якщо це правда, то термін "жучки" (bugs), під яким маються на увазі помилки в програмних і апаратних засобах комп'ютерів, набуває новий сенс.
Коли всі лампи працювали, інженерний персонал міг налаштувати ENIAC на яку-небудь завдання, вручну змінивши підключення 6000 проводів. Всі ці дроти доводилося знову перемикати, коли поставала інша задача. У вирішенні цієї проблеми основну заслугу приписують Джону фон Нейману, американець угорського походження, блискучого вченого, відомого багатьма досягненнями - від розробки теорії ігор до внеску у створення ядерної зброї. Він придумав схему, якої досі дотримуються всі цифрові комп'ютери. "Архітектура фон Неймана", як її тепер називають, базується на принципах, сформульованих ним у 1945 році. У їх число входить і такий: в комп'ютері не доведеться змінювати підключення проводів, якщо всі інструкції будуть зберігатися в його пам'яті. І як тільки цю ідею втілили на практиці, народився сучасний комп'ютер.
Сьогодні "мізки" більшості комп'ютерів - далекі нащадки того мікропроцесора, яким ми з Полом так захоплювалися в сімдесятих, а "рейтинг" персональних комп'ютерів найчастіше визначається тим, скільки біт інформації (перемикачів - в нашому прикладі зі світлом) здатний одночасно обробляти їх мікропроцесор і скільки у них байт (груп з восьми біт) пам'яті і місця на диску. ENIAC важив 30 тонн і займав велике приміщення. "Обчислювальні" імпульси бігали в ньому по 1500 електромеханічних реле і 17000 електронним лампам. Він споживав 150000 ватт електроенергії і при цьому зберігав обсяг інформації, еквівалентний усього лише 80 символам.
До початку шістдесятих років транзистори почали витісняти електронні лампи з побутової електроніки. Це сталося через десятиліття після того, як в Bеll Lаbs відкрили, що крихітний шматочок кремнію здатний робити те ж, що і електронна лампа. Транзистори - подібно електронним лампам - діють як електричні перемикачі, споживаючи при цьому набагато менше електроенергії, в результаті виділяючи набагато менше тепла і займаючи менше місця. Кілька транзисторних схем можна об'єднати на одній платі, створивши тим самим інтегральну схему (чіп). Чіпи, які використовуються в сучасних комп'ютерах, являють собою інтегральні схеми, еквівалентні мільйонів транзисторів, розміщених на шматочку кремнію площею менше п'яти квадратних сантиметрів.
У 1977 році Боб Нойс (Bоb Nоyсе), один із засновників фірми Intеl, в журналі Sсiеntifiс Амегісап порівняв трехсотдолларовый мікропроцесор з ENIAC, що кишать комахами мастодонтом. Крихта-мікропроцесор не тільки могутніше, але і, як зауважив Нойс, "в 20 разів швидше, володіє більшою пам'яттю, в 1000 разів надійніше, споживає енергії стільки ж, скільки лампочка, а не локомотив, займає 1/30000 обсягу і стоїть в 10000 разів дешевше. Його можна замовити поштою або придбати в місцевому магазині".
Звичайно, мікропроцесор 1977 року тепер здається просто іграшкою. Адже сьогодні в багатьох недорогих іграшках "сидять" більш потужні комп'ютерні чіпи, ніж мікропроцесори сімдесятих, з яких починалася микрокомпьютерная революція. Але всі сучасні комп'ютери, який би не був їх розмір або потужність, оперують з інформацією у вигляді двійкових чисел.
Двійкові числа використовуються для зберігання тексту в персональних комп'ютерах, музики на компакт-дисках і грошей у мережі банківських автоматів. Перш ніж відправити інформацію в комп'ютер, її треба перетворити у двійковий вигляд. А машини, цифрові пристрої, повертають інформації її первісну форму. Кожен такий пристрій можна представити як набір перемикачів, які керують потоком електронів. Ці перемикачі, зазвичай виготовляються з кремнію, вкрай малі і спрацьовують під дією електричних зарядів надзвичайно швидко - тим самим відтворюючи текст на екрані персонального комп'ютера, музику на програвачі компакт-дисків і команди банківського автомату, який видає Вам готівку.
Приклад з вимикачами ламп продемонстрував, що будь-яке число можна представити у двійковому вигляді. А ось як те ж саме зробити з текстом. За угодою, число 65 кодує велику латинську літеру A, 66 - B і т.д. В комп'ютері кожне з цих чисел виражається двійковим кодом, тому заголовна латинська літера A (десяткове число 65) перетворюється в 01000001, а літера B (66) - у 01000010. Пробіл кодується числом 32, або 00100000. Таким чином, вираз "Sосrаtеs is а мап" ("Сократ є людина") стає 136-розрядної послідовністю одиниць і нулів.
Тут легко простежити, як рядок тексту перетворилася на набір двійкових чисел. Щоб зрозуміти, як перетворять інші види даних в двійкову форму, розглянемо ще один приклад. Запис на вініловій платівці - це аналогове подання звукових коливань. Аудіоінформація зберігається на ній у вигляді мікроскопічних горбків, розташованих в довгих спіральних канавках. Якщо в якомусь місці музика звучить голосніше, горбки глибше врізаються в канавку, а при високій ноті горбки розташовуються тісніше. Ці горбки є аналогами вихідних коливань звукових хвиль, уловлюваних мікрофоном. Рухаючись по канавці, голка програвача потрапляє на горбки і вібрує. Її вібрація - всі те ж аналогове подання вихідного звуку - посилюється і звучить з динаміків як музика.
Вініловій платівці, подібно всякому аналогових пристроїв зберігання інформації, властивий ряд недоліків. Пил, сліди пальців або подряпини на поверхні пластинки можуть призводити до неадекватних коливань голки, викликаючи в динаміках потріскування і інші шуми. Якщо швидкість обертання пластинки хоча б трохи відхиляється від заданої, висота звуку відразу ж змінюється. При кожному програванні пластинки голка поступово "снашивавает" горбки в канавці, і якість звучання відповідно погіршується. Якщо ж якусь пісню записати з вінілової платівки на касетний магнітофон, то всі "шорсткості" переносяться на плівку, а згодом до них додадуться нові, тому що звичайні магнітофони самі є аналоговими пристроями. Таким чином, при кожній перезапису або передачі інформація втрачає в якості.
На компакт-диску музика зберігається як послідовність двійкових чисел, кожен біт яких представлений мікроскопічної впадинкой на поверхні диска. На сучасних компакт-дисках таких впадинок більше 5 мільярдів. Відбитий промінь всередині програвача компакт-дисків - цифрового пристрою - проходить по кожній западинці, а спеціальний датчик визначає її стан (0 або 1). Отриману інформацію програвач реконструює у вихідну музику, генеруючи певні електричні сигнали, які динаміки перетворять в звукові хвилі. І скільки б такий диск не програвали, його звучання не змінюється.
Було б зручно перетворити всю інформацію в цифрову форму, але виникає проблема її обробки великих обсягів. Занадто велике число біт може переповнити пам'ять комп'ютера або зажадати багато часу на передачу між комп'ютерами. Ось чому так важлива (і стає все важливішим) здатність комп'ютера стискати цифрові дані і зберігати або передавати їх в такому вигляді, а потім знову розгортати стислі дані у вихідну форму.
Розглянемо коротко, як комп'ютер справляється з цим. Для цього треба повернутися до Клоду Шеннону, математику, яка в тридцятих роках усвідомив, як виражати інформацію в двійковій формі. Під час другої світової війни він почав розробляти математичний опис інформації і заснував нову область науки, згодом названу теорією інформації. Шеннон трактував інформацію як зменшення невизначеності. Наприклад, Ви не отримуєте ніякої інформації, якщо хтось повідомляє Вам, що сьогодні неділя, а Ви це знаєте. З іншого боку, якщо Ви не впевнені, який сьогодні день тижня, і хтось говорить Вам - неділя, Ви отримуєте інформацію, так як невизначеність зменшується.
Теорія інформації Шеннона привела в кінцевому рахунку до значних проривів у пізнанні. Один з них - ефективне стиснення даних, принципово важливе як в обчислювальній техніці, так і в області зв'язку. Сказане Шенноном, на перший погляд, здається очевидним: елементи даних, не передають унікальну інформацію, надлишкові і можуть бути відкинуті. Так надходять репортери, виключаючи несуттєві слова, або ті, хто платить за кожне слово, відправляючи телеграму або даючи рекламу. Шеннон навів приклад: в англійській мові буква U зайва в тих місцях, де вона стоїть після букви Q. Тому, знаючи, що U за кожною Q, в повідомленні її можна опустити.
Принципи Шеннона застосовували до стиснення і звуків, і фільмів. У тридцяти кадрах, з яких складається секунда відеозапису, надлишкової інформації надзвичайно багато. Цю інформацію при передачі можна стиснути приблизно з 27 мільйонів біт до 1 мільйона, і вона не втратить ні сенсу, ні фарб.
Однак зменшення не безмежне, а обсяги переданої інформації все зростають і зростають. В недалекому майбутньому біти будуть передаватися та по мідних проводах, і в ефірі, і за інформаційної магістралі, в основу якої ляжуть волоконно-оптичні кабелі. Волоконно-оптичний кабель являє собою пучок скляних або пластмасових проводів настільки однорідних і прозорих, що на іншому кінці стокілометрового кабелю Ви зможете розгледіти палаючу свічку. Двійкові сигнали у вигляді модульованих світлових хвиль зможуть без загасання поширюватися за цими кабелям на дуже довгі відстані. Природно, по волоконно-оптичним кабелям сигнали йдуть не швидше, ніж по мідних проводах: швидкість руху не може перевищити швидкість світла. Колосальна перевага волоконно-оптичного кабелю над мідним проводом - у смузі пропускання. Смуга пропускання - це кількість біт, що передаються по одній лінії в секунду. Такий кабель подібний широкої автомагістралі. Восьмирядна магістраль, прокладена між штатами, пропускає більше автомобілів, ніж вузька грунтова дорога. Чим ширше смуга пропускання кабелю (чим більше рядів біля дороги), тим більше біт (машин) можуть пройти по ньому в секунду. Кабелі з обмеженою смугою пропускання, що використовуються для передачі тексту або мови, називаються узкополосными; з більш широкими можливостями, що несуть зображення і фрагменти з обмеженою анімацією, - среднеполосными. А кабелі з високою пропускною здатністю, що дозволяють передавати безліч відео - і аудіосигналів, прийнято називати широкосмуговими.
Інформаційна магістраль, немислима без стиснення даних, вимагатиме застосування кабелів з дуже високою пропускною здатністю. Тут-то і криється одна з головних причин, чому інформаційна магістраль досі не побудована: сучасні комунікаційні мережі не можуть забезпечити потрібної смуги пропускання. І не забезпечать, поки їх не замінять волоконно-оптичні лінії. Волоконна оптика - приклад технології, що виходить далеко за рамки того, що могли передбачити Беббидж або навіть Еккерт і Моучли. Те ж відноситься і до темпів, з якими поліпшується продуктивність і ємність мікросхем.
У 1965 році Гордон Мур (Gоrdоn Мооге), згодом разом з Бобом Нойс заснував фірму Intеl, передбачив, що число транзисторів в комп'ютерних чіпах щорічно буде подвоюватися. Його передбачення базувалося на співвідношенні "ціна/якість" комп'ютерних чіпів за попередні 3 роки і припущенні, що найближчим часом ця тенденція збережеться. Правда, Мур не дуже-то вірив, що така швидкість еволюції чіпів триватиме довго. Але пройшло 10 років, пророцтво збулося, і тоді він заявив, що тепер ємність буде подвоюватися кожні 2 року. Його слова виправдовуються і донині: число транзисторів в мікропроцесорах подвоюється в середньому кожні 18 місяців. Серед інженерів цю залежність називають законом Мура.
Досвід повсякденного життя безсилий перед прихованим змістом періодично удваивающихся чисел - експоненційної прогресією. Ми спробуємо вникнути в цей сенс, згадавши давню легенду.
Правитель Індії Ширхам (Shirhаm) так зрадів, коли один з його міністрів винайшов шахи, що дозволив йому вибрати будь-яку нагороду.
"Владика, - сказав міністр, - дай мені стільки зерен пшениці, скільки вміститься на шаховій дошці: зернина - на першу клітку, на другу клітку - 2 зернини, на третю - 4 і нехай так подвоюють кількість зерняток на кожній клітці аж до шістдесят четвертої". Правитель чимало здивувався такій скромності, але велів принести мішок пшениці.
І ось зернятка стали відраховувати на шаховій дошці. На першу клітинку в першому рядку поклали одне маленьке зернятко. На другу - 2 зернини, на третю - 4 і далі: 8, 16, 32, 64, 128. Коли перший ряд був заповнений, комірник нарахував в ньому всього 255 зерняток.
Правитель, напевно, ще нічого не підозрював. Хіба що зерняток на першому ряду виявилося забагато, але хвилюватися начебто не про що. Припустимо, на одне зернятко йшла одна секунда, значить, підрахунок поки зайняв не більше чотирьох хвилин. А якщо на один ряд знадобилося чотири хвилини, спробуйте здогадатися, скільки часу потрібно на підрахунок зерен пшениці на всіх клітинах. Чотири години? Чотири дні? Чотири роки?
До того часу, коли покінчили з другим рядом, комірник трудився вже 18 годин, відрахувавши 65535 зерняток. На третій з восьми рядів, щоб відрахувати 16,8 мільйонів зерняток (24 клітини), знадобилося 194 дні. А адже залишалося ще 40 порожніх клітин.
Думаю, Ви розумієте: правитель відмовився від своєї обіцянки! На останній клітці повинна була зрости гора з 18446744073709551615 зерняток пшениці, і на їх отсчитывание пішло б 584 мільярда років. Порівняйте: вік Землі оцінюють десь у 4,5 мільярда років. Згідно з більшістю версій цієї легенди, правитель Ширхам врешті-решт зрозумів, як спритно його провели, і велів стратити цього міністра-розумника. Так що експоненціальна прогресія, навіть коли її зрозумієш, здається чистим фокусом.
Число транзисторів в мікропроцесорах Intеl подвоювалася приблизно кожні 18 місяців - відповідно до закону Мура.
Закон Мура, як видно, буде діяти ще років двадцять. І тоді обчислення, які займають сьогодні добу, будуть проводитися в 10000 разів швидше, тобто не зажадають більше десяти секунд.
Лабораторії вже працюють з так званими "балістичні" транзистори, час переключення яких порядку фемтосекунды. Це 1/1000000000000000 секунди, тобто такі транзистори в 10 мільйонів разів швидше сучасних. Однак необхідно зменшити розмір чіпа і протікає в ньому струм, щоб рухомі електрони ні з чим не стикалися - і один з одним теж. У цьому вся складність. Наступний етап - створення "одноелектронного транзистора", в якому єдиний біт інформації представлений окремим електроном. Це абсолютний межа для низько енергетичною обчислювальної техніки, принаймні, у відповідності з нашим нинішнім розумінням фізичних законів. Щоб скористатися перевагами неймовірної швидкодії на молекулярному рівні, комп'ютери повинні стати дуже маленькими, навіть мікроскопічними. Наука вже пояснила, як будувати супербыстрые комп'ютери. Поки не вистачає одного - технологічного прориву, але за цим, як показує історія, справа не стане.
Коли ми перейдемо на такі швидкості роботи, зберігання усіх цих біт інформації вже не буде проблемою. Навесні 1983 року корпорація IBM випустила PC/XT, перший персональний комп'ютер з внутрішнім жорстким диском. Цей диск (вбудований накопичувач) вміщував 10 мегабайт (Мб) інформації, що становить близько 10 мільйонів символів, або 80 мільйонів біт. Клієнтам, які хотіли доповнити свої "персоналки" 10-мегабайтовым диском, це обходилося досить недешево. IBM пропонувала комплект з жорсткого диска з окремим джерелом живлення за 3000 доларів, тобто один мегабайт коштував 300 доларів. Сьогодні, завдяки "експоненціальним" прогресу, показаному законом Мура, персональні комп'ютери оснащуються жорсткими дисками ємністю 1,2 гігабайт (1,2 мільярда символів) всього за 250 доларів - по 21 центу за мегабайт! А попереду нас чекає така екзотика, як голографічна пам'ять, яка дозволить зберігати терабайти символів на кубічний дюйм (близько 16 кубічних сантиметрів). При такій ємності голографічна пам'ять об'ємом з кулак вмістить всю Бібліотеку Конгресу.
По мірі того як технологія зв'язку стає цифровий, вона теж починає прогресувати по експоненті - тієї самої, що зробила нинішній "лептоп" за 2000 доларів могутніше, ніж мэйнфрейм IBM двадцятирічної давності за 10 мільйонів доларів.
Вже недалеко час, коли по єдиному кабелю до кожного будинку підуть усі потрібні цифрові дані. Цей кабель або волоконно-оптичним, як на нинішніх міжміських телефонних лініях, або коаксіальним, за яким зараз передають сигнали кабельного телебачення. Інтерпретує комп'ютер біти як мовний виклик - задзвонить телефон. З'являться відео - телевізор включиться. Надійдуть новини від оперативних сллслужб - Ви побачите інформаційний текст і знімки на екрані комп'ютера.
З цього кабелю, "несе на собі" всю мережу, безумовно, будуть передавати не тільки телефонні дзвінки, фільми і новини. Як людина кам'яного століття з примітивним ножем не міг уявити пишноти дверей баптистерія Гіберті у Флоренції, так і ми зараз не можемо уявити, що саме буде нести інформаційна магістраль через 25 років. Тільки тоді, коли вона дійсно з'явиться, ми оцінимо її реальні можливості. Однак історія досягнень цифрової технології за останні 20 років все ж дозволяє вловити деякі з її майбутніх ключових принципів і можливостей.
Все о туризме - Туристическая библиотека На страницах сайта публикуются научные статьи, методические пособия, программы учебных дисциплин направления "Туризм".
Все материалы публикуются с научно-исследовательской и образовательной целью. Права на публикации принадлежат их авторам.