8.3. Розвиток елементної бази. Закон Мура
Технологія виготовлення мікропроцесорів розвивається у напрямі подальшої мініатюризації електронних схем і, як наслідок, підвищення ступеня їхньої інтеграції. Рівень мініатюризації прийнято оцінювати кроком конструкційної сітки мікросхеми, що визначає ширину друкованих провідників та розміри інших елементів на кристалі. Передові фірми вже давно засвоїли 0.5-мікронну технологію (це означає, що розміри дискретних елементів складають півмікрона, для порівняння – товщина людського волосу в середньому дорівнює 50 мікронам, а довжина хвилі видимого світла складає 0.4-0.7 мікрона), і наполегливо рухаються до 0.1-мікронної. Елементи такої мікросхеми неможливо побачити в оптичний мікроскоп – тільки в електронний.
Усім цим неймовірними звершеннями комп'ютерної революції ми зобов'язані кільком фізичним принципам [15]. По-перше, комп'ютери рахують з такою разючою швидкістю тому, що електричні сигнали рухаються по дротах зі швидкістю, близькою до швидкості світла.
По-друге, кількість інформації, яку можна передати за допомогою лазерного променя, практично нічим не обмежена. Світлові хвилі коливаються в багато разів швидше звукових і можуть нести на собі набагато більше інформації, ніж звук. Уявіть, наприклад, довгу натягнуту мотузку, по якій з одного кінця пускають хвилі. Чим швидше рухається цей кінець, тим більше сигналів вміщується на мотузці. Тому кількість інформації, яку можна передати при допомозі хвилі, тим більше, чим швидше вона коливається, тобто чим більше її частота.
По-третє – і це найголовніше, – основою комп'ютерної революції є мініатюризація транзисторів. Транзистор – це електронний ключ, або керуючий елемент, контролюючий потік електрики. Якщо порівняти електричний контур з водопроводом, то транзистор – це кран, керуючий потоком води.
Зменшення розмірів дозволяє «упакувати» на одному чипі більшу кількість елементів та ускладнити мікросхему. Ще у 1968 році, на зорі мікроелектроніки, один із засновників фірми Intel Гордон Мур сформулював емпіричний «закон Мура», за яким кількість елементів на одному кристалі повинна подвоюватися кожні півтора року. Дивно, але факт – пройшло 45 років, невпізнанно перетворилися технології, проте закон продовжує діяти і зараз. Отже відзначимо, що вперше така закономірність була відмічена не Гордоном Муром, як думає багато хто, а великим Дагом Енгельбартом. Саме він зробив прогноз про періодичне подвоєння щільності у 1960 році, тобто на багато раніше появи знаменитої статті Мура.
Спочатку закон Мура сприймався як деякий казус. Він більшою мірою дивував, ніж слугував керівництвом до дії, але з часом коректність закону перестала викликати сумнів, і зараз є впевненість у його дієвості на довгі роки наперед, з ним пов’язують надії на майбутнє. Показово, що про закон Мура широко заговорили лише років десять тому. Як не дивно, до цього він був мало кому відомий, а вже його точне формулювання тим більше. Довгий час його помилково інтерпретували як закон періодичного подвоєння продуктивності, і лише коли продуктивність стала падати, пригадали про початкове формулювання, яке говорить про щільність розміщення транзисторів на кристалі.
З переходом на транзистори комп'ютери стрімко зменшилися в розмірах: «обчислювач», який раніше вимагав приміщення розміром з заводський цех, став уміщатися в невеликій кімнаті! Так, в 1955 р. Фірма Bell Laboratories створює перший транзисторний комп'ютер другого покоління TRADIC, що містить 800 транзисторів і 10 000 діодів, а в 1960 р. компанія DEC випустила легендарний «міні»-комп'ютер PDP-1, який уміщався в кутку невеликої кімнати.
Але еволюція комп'ютерів на цьому не зупинилася: розміри транзисторів постійно зменшувалися. Та 12 вересня 1958 р. у електронному світі відбулася нова революція: співробітник компанії Texas Instruments Джек Кілбі створив елементи, що об'єднують безліч транзисторів – інтегральні схеми. Перша з них містила всього п'ять транзисторів, пізніше їх кількість збільшувалася і збільшувалася.
Поява інтегральних мікросхем породило новий вид обчислювальних машин Duo комп'ютери третього покоління, ЕОМ, які здатні виконувати 300 млн операцій в секунду.
Але і цьому поколінню комп'ютерів залишалося жити недовго: вже в 1971 р. компанія Intel представила нову розробку, об'єднала на одному кристалі більше двох тисяч транзисторів. Так народився мікропроцесор – а разом з ним народилося четверте покоління комп'ютерів – те саме, з яким ми і працюємо сьогодні.
У повній відповідності із законом Мура, сучасні мікропроцесори є неймовірно складними пристроями. Наприклад, якщо в першому процесорі Intel 4004 містилося всього лише 2300 транзисторів, то кристал P5 фірми Intel, випущений у 1993 р., який отримав торговельну марку «Pentium», містить близько 3 млн транзисторів, P6 – «Pentium Pro» (1996 р.) – 7,5 млн, а процесор P7 (під час розробки він називався «Merced», а в продаж пішов під ім’ям «Itanium»), випуск якого почався у 2000 р., мав уже близько 20 млн транзисторів, а в сучасних Core 2 Duo (65 нм технологія, 2006 р.) – Core i7-3820 Duo (32 нм технологія, 2012 р.) їх вже від 290 млн до 2.7 млрд. Для наочності пояснимо, що на кінчику людської волосини може поміститися більше 1000 транзисторів.
Зменшення розмірів деталей та довжин провідників, що з’єднують їх, дозволяє поліпшити ще одну характеристику мікропроцесора, яка пропорційно впливає на його продуктивність – тактову частоту. Якщо у чипа i4004 вона дорівнювала 108 кГц, то сучасні схеми припускають збільшення тактової частоти до 2000-3000 Мгц, тобто 3 Ггц, і це ще не межа.
До тих пір, поки складність процесорів не почала стримувати подальший розвиток, закон Мура сприймався виключно як гарант прогресу, проте сьогодні складність стала серйозною проблемою. Ставлення до закону Мура та його місця у комп’ютерній історії потребує переосмислення [Леонид Черняк. Архитектура фон Неймана, реконфигурируемые компьютерные системы и антимашина. Открытые системы, №06, 2008]. Загалом в еволюційному процесі закон Мура грає подвійну роль, будучи як гальмом, так і стимул-реакцією одночасно. Гальмом – або, швидше, консервуючим чинником – закон Мура можна рахувати тому, що він впродовж багатьох років дозволяв зберігати динаміку розвитку, обходячись без радикальних інноваційних кроків. Працював своєрідний позитивний зворотний зв’язок – із збільшенням кількості транзисторів розробники процесорів компенсували зниження якості архітектури. Як результат продуктивність продовжувала зростати, але повільніше, ніж число транзисторів. Подальший розвиток напівпровідникових технологій за законом Мура не може компенсувати неефективність сучасних процесорів. Але з іншого боку, кількісне зростання, яке постулююється законом Мура, зумовлює неминучі зміни, і в якийсь момент повинен спрацювати діалектичний перехід кількості в якість.
Закон Мура так невпинно забезпечував нам експоненціальне зростання потужності комп'ютерів, зокрема, тому, що виробники мікросхем, відпрацьовуючи технологію, поступово зменшували довжину хвилі УФ-випромінювання, що дозволяло їм витравлювати на кремнієвих пластинках все більш і більш крихітні транзистори. Довжину хвилі УФ-випромінювання можна довести до 10 нм (нанометр - це одна мільярдна частина метра), і найменший транзистор, який можна витравити на підкладці таким способом, буде близько тридцяти атомів у поперечнику [15].
Але цей процес не може тривати до нескінченності. Можна навіть прикинути, коли приблизно завалиться закон Мура: в той момент, коли подальша мініатюризація зажадає робити транзистори розміром з окремий атом. Таким чином, ми зіткнемося з тим, що витравити таким способом транзистор розміром з один атом фізично неможливо.
Близько до 2020 року або трохи пізніше закон Мура поступово перестане діяти; якщо не буде знайдена нова технологія, здатна замінити нинішню і забезпечити подальший прогрес [15]. Згідно законам природи з часом Кремнієва ера закінчиться і почнеться Посткремніевая. Транзистори стануть такими маленькими, що на сцену вийдуть квантова теорія або атомна фізика.
- Міністерство освіти і науки україни
- 9.12. Огляд WinDev 154
- 10. Історія операційних систем 169
- Список літератури 187
- Передмова
- 1. Передвісники комп’ютерної ери
- 1.1. Комп’ютерна програма–що це?
- 1.2. Доелектронна історія обчислювальної техніки
- Логарифмічна лінійка
- 1.3. Можливості двійкового коду
- 1.4. Розвиток двійкової системи
- 1.5. Винахід перших комп’ютерів
- Перша в історії працююча програмнокерована універсальна обчислювальна машина z-3 (1941 р.)
- 1.6. Гарвардська архітектура
- 1.7. Архітектура фон Неймана
- 1.8. Створення зрозумілих людині кодів
- 1.9. Крок на благо програмування
- 1.10. Можливості програмного управління
- 2. Нові мови програмування
- 2.1. Поневіряння пакетної обробки
- 2.2. Універсальна мова програмування
- 2.3. Усунення неоднозначності
- 2.4. Заклик до дотримання математичної строгості
- 2.5. Пошук та усунення помилок
- 2.6. Нелегке мистецтво програмування
- 2.7. Обчислювальна техніка та програмування в срср
- 3. Розквіт та хаос програмного забезпечення
- 3.1. Місце народження хакерів
- 3.2. Два чародії програмування
- 3.3. Перші промислові стандарти
- 3.4. Дружній інтерфейс
- 3.5. Прообраз сучасного «ноутбука»
- 4. Болісний шлях розвитку програмування
- 4.1. Плануюче обчислення
- 4.2. Внесок Великої Британії
- 4.3. Програмування англійською мовою
- 5. Три комерційні гіганти
- 5.1. Перша комерційна мова програмування
- 5.2. Обчислювальна техніка приходить у бізнес
- 5.3. Народження codasyl
- 5.4. Конференція в Цюріху
- 5.5. На шляху до сумісності комп’ютерів
- 5.6. Розбіжності Нового Світу
- 6. Десятиліття динамічного розвитку
- 6.1. Перші кроки непроцедурної мови
- 6.3. Алфавітне хрещення
- 6.4. Успіх та суперечки
- 6.5. Інженерний підхід
- 6.6. Структурний підхід
- 6.7. Поява мови “Ада”
- 7. Програмування приходить у наші домівки
- 7.1. Розквіт Бейсіка
- 7.2. Поява мови Модула-2
- 7.3. Музикальний француз
- 7.4.Довгожитель Lisp – інструмент функціонального програмування
- 7.5. Prolog – нездійснена мрія еом V покоління
- 7.6. Революція на ім’я Java
- 8. Історія і шляхи розвитку супер-еом
- 8.1. Усе починалося з менфреймов
- 8.2. Напрями розвитку обчислювальної техніки
- 8.3. Розвиток елементної бази. Закон Мура
- 8.4. Вдосконалення архітектури
- Звичайна послідовн обробка
- Конвеєрна обробка
- 9. Сучасний стан та перспективи розвитку програмування
- 9.1. Криза у програмуванні
- 9.2. Методологія процедурно-орієнтованогопрограмування
- 9.3. Методологія об’єктно-орієнтованогопрограмування
- 9.4. Методологія об’єктно-орієнтованогоаналізу та проектування
- 9.5. Технології програмування
- 9.6. Case –засоби
- 9.7. Методологія rad
- 9.11.1. Знайомство с LightSwitch
- 9.11.2. Архитектура LightSwitch
- 9.11.3. Створення проекту в Microsoft Visual Studio LightSwitch
- 9.11.4. Дванадцять основних переваг LightSwitch
- 9.12. Огляд WinDev
- 9.12.1. ПризначенняWinDev
- 9.12.2. Деякі характеристики wLanguage
- 9.13. Технологія model checking
- 9.14. NeoBook – программирование для непрограммистов
- 9.14.1. Введення для секретарок
- 9.14.3. Можливості та області застосування
- 9.15. Файлові системи найближчого майбутнього
- 9.15.1. Зетта-повінь настає
- 9.15.2. Файлова система zfs
- 9.15.3. Файлова системаBtrfs
- 9.15.4. Файлова системаHammer
- 10. Історія операційних систем
- 10.1. Послідовна обробка даних
- 10.2. Прості пакетні системи
- 10.3. Багатозадачні пакетні системи
- 10.4. Системи з режимом розподілу часу
- 10.5. Основні досягнення
- 10.6. Сучасні системи unix
- 10.7. Os/2. Битва двох гігантів
- Список літератури