Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych

Spisu treści:

Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych
Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych

Wideo: Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych

Wideo: Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych
Wideo: HISTORIA ZIMNEJ WOJNY cz.1 - Film dokumentalny - Lektor PL 2024, Kwiecień
Anonim

Co do pierwszego zadania - tutaj niestety, jak wspomnieliśmy w poprzednim artykule, nie było zapachu standaryzacji komputerów w ZSRR. Była to największa plaga sowieckich komputerów (wraz z urzędnikami), którą równie nie dało się przezwyciężyć. Idea standardu jest często niedocenianym konceptualnym odkryciem człowieczeństwa, godnym bycia na równi z bombą atomową.

Standaryzacja zapewnia unifikację, potokowanie, ogromne uproszczenie i koszty wdrożenia i utrzymania oraz niesamowitą łączność. Wszystkie części są wymienne, maszyny mogą być stemplowane w dziesiątkach tysięcy, pojawia się synergia. Pomysł ten został zastosowany 100 lat wcześniej do broni palnej, 40 lat wcześniej do samochodów – wyniki były wszędzie przełomowe. Jest to tym bardziej uderzające, że dopiero w USA pomyślano o tym przed zastosowaniem go na komputerach. W rezultacie pożyczyliśmy IBM S/360 i nie ukradliśmy samego komputera mainframe, jego architektury, ani przełomowego sprzętu. Absolutnie wszystko to mogło być z łatwością domowe, mieliśmy wystarczająco dużo prostych ramion i bystrych umysłów, było mnóstwo genialnych (i według zachodnich standardów także) technologii i maszyn - serie M Kartseva, Setun, MIR, można wymienić na długi czas. Kradnąc S/360, pożyczyliśmy przede wszystkim coś, czego nie mieliśmy jako klasy w ogóle przez wszystkie lata rozwoju technologii elektronicznych do tego momentu - ideę standardu. To był najcenniejszy nabytek. I, niestety, fatalny brak pewnego pojęciowego myślenia poza marksizmem-leninizmem i „genialnym” sowieckim kierownictwem nie pozwolił nam na samodzielne zrealizowanie go z góry.

Jednak o S/360 i UE porozmawiamy później, to bolesny i ważny temat, który wiąże się również z rozwojem komputerów wojskowych.

Standaryzację w technologii komputerowej wprowadziła najstarsza i największa firma produkująca sprzęt – oczywiście IBM. Do połowy lat pięćdziesiątych przyjmowano za pewnik, że komputery były budowane kawałek po kawałku lub w małych seriach maszyn po 10-50 i nikt nie przypuszczał, że będą kompatybilne. Wszystko zmieniło się, gdy IBM, zachęcony przez swojego odwiecznego rywala UNIVAC (który budował superkomputer LARC), zdecydował się zbudować najbardziej złożony, największy i najpotężniejszy komputer lat 50. - IBM 7030 Data Processing System, lepiej znany jako Stretch. Pomimo zaawansowanej bazy elementów (maszyna była przeznaczona dla wojska i dlatego IBM otrzymał od nich ogromną liczbę tranzystorów), złożoność Stretcha była wygórowana – konieczne było opracowanie i zamontowanie ponad 30 000 płyt po kilkadziesiąt elementów każda.

Stretch został opracowany przez takich mistrzów jak Gene Amdahl (późniejszy programista S / 360 i założyciel Amdahl Corporation), Frederick P. Brooks (Jr również programista S / 360 i autor koncepcji architektury oprogramowania) oraz Lyle Johnson (Lyle R. Johnson, autor koncepcji architektury komputerowej).

Pomimo ogromnej mocy maszyny i ogromnej ilości innowacji, komercyjny projekt całkowicie się nie powiódł - osiągnięto tylko 30% zapowiadanych osiągów, a prezes firmy Thomas J. Watson Jr. proporcjonalnie obniżył cenę o 7030 kilka razy, co doprowadziło do dużych strat…

Później Stretch został nazwany przez Jake'a Widmana Lessons Learned: IT's Biggest Project Failures, PC World, 10.09.08 jako jeden z 10 największych niepowodzeń w zarządzaniu w branży IT. Lider rozwoju Stephen Dunwell został ukarany za komercyjną porażkę Stretcha, ale wkrótce po fenomenalnym sukcesie System / 360 w 1964 roku zauważył, że większość jego podstawowych pomysłów została po raz pierwszy zastosowana w 7030. W rezultacie nie tylko mu wybaczono, ale również w 1966 został oficjalnie przeproszony i otrzymał honorowe stanowisko IBM Fellow.

Technologia 7030 wyprzedziła swoje czasy – wstępne pobieranie instrukcji i operandów, arytmetyka równoległa, ochrona, przeplatanie i bufory zapisu pamięci RAM, a nawet ograniczona forma ponownego sekwencjonowania zwana przed wykonaniem instrukcji - protoplasta tej samej technologii w procesorach Pentium. Co więcej, procesor był potokowy, a maszyna była w stanie przesyłać (za pomocą specjalnego koprocesora kanałowego) dane z pamięci RAM bezpośrednio do urządzeń zewnętrznych, rozładowując centralny procesor. Była to swego rodzaju kosztowna wersja technologii DMA (bezpośredni dostęp do pamięci), której używamy dzisiaj, chociaż kanały Stretch były kontrolowane przez oddzielne procesory i miały wielokrotnie większą funkcjonalność niż nowoczesne, słabe implementacje (i były znacznie droższe!). Później ta technologia została przeniesiona na S/360.

Zakres IBM 7030 był ogromny - rozwój bomb atomowych, meteorologia, obliczenia dla programu Apollo. Tylko Stretch mógł to wszystko zrobić dzięki ogromnemu rozmiarowi pamięci i niesamowitej szybkości przetwarzania. W bloku indeksowania można było wykonać do sześciu instrukcji w locie, a do bloków pobierania wstępnego i równoległej jednostki ALU można było załadować do pięciu instrukcji jednocześnie. Tak więc w danym momencie do 11 poleceń może znajdować się na różnych etapach wykonywania - jeśli zignorujemy przestarzałą bazę elementów, to nowoczesne mikroprocesory nie są daleko od tej architektury. Na przykład Intel Haswell przetwarza do 15 różnych instrukcji na zegar, czyli tylko o 4 więcej niż procesor z lat 50.!

Zbudowano dziesięć systemów, program Stretch przyniósł IBM 20 milionów strat, ale jego spuścizna technologiczna była tak bogata, że zaraz po nim odniósł sukces komercyjny. Pomimo krótkiego życia 7030 przyniósł wiele korzyści, a architektonicznie był jedną z pięciu najważniejszych maszyn w historii.

Niemniej jednak IBM uznał nieszczęsny Stretch za porażkę i właśnie z tego powodu programiści wyciągnęli główną lekcję - projektowanie sprzętu nigdy nie było już sztuką anarchii. Stało się nauką ścisłą. W wyniku swojej pracy Johnson i Brooke napisali fundamentalną książkę opublikowaną w 1962 roku „Planning a Computer System: Project Stretch”.

Projektowanie komputera zostało podzielone na trzy klasyczne poziomy: opracowanie systemu instrukcji, opracowanie mikroarchitektury implementującej ten system oraz opracowanie architektury systemowej maszyny jako całości. Ponadto książka jako pierwsza użyła klasycznego terminu „architektura komputerowa”. Metodologicznie była to praca bezcenna, biblia dla projektantów sprzętu i podręcznik dla pokoleń inżynierów. Przedstawione tam idee zostały zastosowane przez wszystkie korporacje komputerowe w Stanach Zjednoczonych.

Niestrudzony pionier cybernetyki, wspomniany już Kitov (nie tylko fenomenalnie oczytana osoba, jak Berg, który stale śledził zachodnią prasę, ale prawdziwy wizjoner) przyczynił się do jej publikacji w 1965 r. (Projektowanie ultraszybkich systemów: Stretch Complex; red. AI Kitova - M.: Mir, 1965). Książka została zmniejszona o prawie jedną trzecią i pomimo faktu, że Kitov szczególnie zwrócił uwagę na główne zasady architektoniczne, systemowe, logiczne i programowe budowy komputerów w rozszerzonej przedmowie, przeszła prawie niezauważona.

Ostatecznie Stretch dał światu coś nowego, co nie było dotychczas stosowane w branży komputerowej – ideę standaryzowanych modułów, z której później wyrosła cała branża elementów układów scalonych. Każda osoba, która idzie do sklepu po nową kartę graficzną NVIDII, a następnie wkłada ją w miejsce starej karty graficznej ATI, a wszystko działa bez problemów - w tej chwili oddaj mentalne podziękowania Johnsonowi i Brookowi. Ci ludzie wymyślili coś bardziej rewolucyjnego (i mniej zauważalnego i od razu docenionego, na przykład programiści w ZSRR w ogóle nie zwracali na to uwagi!) niż rurociąg i DMA.

Wynaleźli standardowe kompatybilne płyty.

SMS

Jak już powiedzieliśmy, projekt Stretch nie miał odpowiedników pod względem złożoności. Gigantyczna maszyna miała składać się z ponad 170 000 tranzystorów, nie licząc setek tysięcy innych elementów elektronicznych. Wszystko to musiało być jakoś zamontowane (pamiętaj, jak Yuditsky spacyfikował zbuntowane ogromne tablice, rozbijając je na oddzielne elementarne urządzenia - niestety dla ZSRR ta praktyka nie została ogólnie przyjęta), debugować, a następnie wspierać, wymieniając wadliwe części. W efekcie twórcy zaproponowali pomysł, który był oczywisty z wysokości naszych dzisiejszych doświadczeń - najpierw opracować poszczególne małe klocki, zaimplementować je na standardowych mapach, a następnie złożyć samochód z map.

Obraz
Obraz

Tak narodził się SMS - Standard Modular System, który po Stretchie był używany wszędzie.

Składał się z dwóch elementów. Pierwszym była tak naprawdę sama płytka z podstawowymi elementami o wymiarach 2,5x4,5 cala z 16-pinowym pozłacanym złączem. Były deski o pojedynczej i podwójnej szerokości. Drugi to standardowy stojak na karty, z szynami zbiorczymi rozłożonymi z tyłu.

Niektóre rodzaje kart można skonfigurować za pomocą specjalnej zworki (tak jak płyty główne są teraz strojone). Ta funkcja miała na celu zmniejszenie liczby kart, które inżynier musiał ze sobą zabrać. Jednak liczba kart szybko przekroczyła 2500 dzięki zaimplementowaniu wielu rodzin logiki cyfrowej (ECL, RTL, DTL itp.), a także układów analogowych dla różnych systemów. Niemniej jednak SMS spełnił swoje zadanie.

Były stosowane we wszystkich maszynach IBM drugiej generacji oraz w licznych peryferiach maszyn trzeciej generacji, a także służyły jako prototyp dla bardziej zaawansowanych modułów S/360 SLT. Była to ta „tajna” broń, na którą jednak nikt w ZSRR nie zwracał większej uwagi i pozwoliła IBM zwiększyć produkcję swoich maszyn do dziesiątek tysięcy rocznie, o czym wspominaliśmy w poprzednim artykule.

Ta technologia została zapożyczona przez wszystkich uczestników amerykańskiego wyścigu komputerowego - od Sperry po Burroughs. Ich całkowitej produkcji nie można było porównać z ojcami z IBM, ale to pozwoliło w latach 1953-1963 po prostu zapełnić nie tylko amerykański, ale i międzynarodowy rynek komputerami własnej konstrukcji, dosłownie powalając. wszystkich regionalnych producentów stamtąd - od Bull do Olivetti. Nic nie przeszkodziło ZSRR w zrobieniu tego samego, przynajmniej z krajami RWPG, ale, niestety, przed serią unijną idea standardu nie odwiedziła naszych państwowych szefów planowania.

Kompaktowa koncepcja opakowania

Drugim filarem po standaryzacji (która tysiąckrotnie odegrała rolę w przejściu na układy scalone i zaowocowała rozwojem tzw. bibliotek standardowych bramek logicznych, bez żadnych specjalnych zmian stosowanych od lat 60. do dnia dzisiejszego!) była koncepcja kompaktowe opakowanie, o którym pomyślano jeszcze przed układami scalonymi, układami scalonymi, a nawet tranzystorami.

Wojnę o miniaturyzację można podzielić na 4 etapy. Pierwszy to pre-tranzystor, kiedy próbowano ujednolicić i zredukować lampy. Drugi to pojawienie się i wprowadzenie płytek drukowanych do montażu powierzchniowego. Trzecim jest poszukiwanie najbardziej kompaktowego pakietu tranzystorów, mikromodułów, obwodów cienkowarstwowych i hybrydowych - ogólnie bezpośrednich przodków układów scalonych. I wreszcie czwarta to sami IS. Wszystkie te ścieżki (z wyjątkiem miniaturyzacji lamp) ZSRR przebiegały równolegle z USA.

Pierwszym połączonym urządzeniem elektronicznym był rodzaj „zintegrowanej lampy” Loewe 3NF, opracowany przez niemiecką firmę Loewe-Audion GmbH w 1926 roku. To fanatyczne marzenie o ciepłym, lampowym brzmieniu składało się z trzech lamp triodowych w jednej szklanej obudowie, wraz z dwoma kondensatorami i czterema rezystorami potrzebnymi do stworzenia pełnoprawnego odbiornika radiowego. Rezystory i kondensatory zostały zamknięte we własnych szklanych rurkach, aby zapobiec zanieczyszczeniu próżni. W rzeczywistości był to „odbiornik w lampie”, jak nowoczesny system na chipie! Jedyne, co trzeba było kupić, aby stworzyć radio, to cewka strojenia i kondensator oraz głośnik.

Ten cud techniki nie powstał jednak po to, by kilkadziesiąt lat wcześniej wkroczyć w erę układów scalonych, ale by uniknąć niemieckich podatków nakładanych na każde gniazdo lampy (podatek od luksusu Republiki Weimarskiej). Odbiorniki Loewe miały tylko jedno złącze, co dawało ich właścicielom spore preferencje finansowe. Pomysł powstał w linii 2NF (dwie tetrody plus elementy bierne) oraz monstrualnym WG38 (dwie pentody, trioda i elementy bierne).

Obraz
Obraz

Ogólnie rzecz biorąc, lampy miały ogromny potencjał integracji (chociaż koszt i złożoność projektu wzrosły niebotycznie), szczytem takich technologii był RCA Selectron. Ta monstrualna lampa została opracowana pod kierownictwem Jana Aleksandra Rajchmana (nazywanego Panem Pamięcią za stworzenie 6 typów pamięci RAM od półprzewodnikowej po holograficzną).

Jana von Neumanna

Po zbudowaniu ENIAC John von Neumann udał się do Institute for Advanced Study (IAS), gdzie chętnie kontynuował prace nad nowym ważnym (uważał, że komputery są ważniejsze niż bomby atomowe dla zwycięstwa nad ZSRR) naukowym kierunek - komputery. Zgodnie z ideą von Neumanna zaprojektowana przez niego architektura (zwana później von Neumannem) miała stać się punktem odniesienia dla projektowania maszyn na wszystkich uniwersytetach i ośrodkach badawczych w Stanach Zjednoczonych (częściowo tak się stało, m.in. sposób) - znowu pragnienie zjednoczenia i uproszczenia!

Do maszyny IAS von Neumann potrzebował pamięci. A RCA, wiodący producent wszystkich urządzeń próżniowych w Stanach Zjednoczonych w tamtych latach, hojnie zaoferował im sponsorowanie lampami Williamsa. Spodziewano się, że włączając je do standardowej architektury, von Neumann przyczyni się do ich rozpowszechnienia jako standardu pamięci RAM, co w przyszłości przyniesie kolosalne przychody RCA. W projekcie IAS ułożono 40 kbit RAM, sponsorzy z RCA byli trochę zasmuceni takimi apetytami i poprosili wydział Reichmana o zmniejszenie liczby rur.

Raikhman, z pomocą rosyjskiego emigranta Igora Grozdowa (na ogół w RCA pracowało wielu Rosjan, w tym słynny Zvorykin, a sam prezydent David Sarnov był białoruskim Żydem - emigrantem) zrodził absolutnie niesamowite rozwiązanie - koronę próżni zintegrowana technologia, lampa RAM RCA SB256 Selectron dla 4 kbit! Jednak technologia okazała się szalenie skomplikowana i droga, nawet seryjne lampy kosztowały około 500 USD za sztukę, podstawa w ogóle była potworem z 31 stykami. W rezultacie projekt nie znalazł nabywcy z powodu opóźnień w serii - na nosie była już pamięć ferrytowa.

Obraz
Obraz

Projekt Tinkertoy

Wielu producentów komputerów podjęło celowe próby ulepszenia architektury (nie można tu jeszcze określić topologii) modułów lamp w celu zwiększenia ich kompaktowości i łatwości wymiany.

Najbardziej udaną próbą była seria standardowych lamp IBM 70xx. Szczytem miniaturyzacji lamp była pierwsza generacja programu Project Tinkertoy, nazwanego na cześć popularnego projektanta dzieci z lat 1910-1940.

Amerykanom też nie wszystko idzie gładko, zwłaszcza gdy w kontrakty angażuje się rząd. W 1950 r. Biuro Aeronautyki Marynarki Wojennej zleciło Narodowemu Biuru Standardów (NBS) opracowanie zintegrowanego systemu komputerowego wspomagania projektowania i produkcji uniwersalnych urządzeń elektronicznych typu modułowego. W zasadzie w tym czasie było to uzasadnione, ponieważ nikt jeszcze nie wiedział, dokąd doprowadzi tranzystor i jak go właściwie wykorzystać.

NBS przeznaczył ponad 4,7 miliona dolarów na rozwój (około 60 milionów dolarów według dzisiejszych standardów), entuzjastyczne artykuły zostały opublikowane w numerze Popular Mechanics z czerwca 1954 roku i numerze Popular Electronics z maja 1955 roku i … Projekt został zdmuchnięty, pozostawiając za tylko kilka technologii opryskiwania i serią boi radarowych z lat 50. wykonanych z tych komponentów.

Co się stało?

Pomysł był świetny - zrewolucjonizować automatyzację produkcji i zamienić ogromne bloki a la IBM 701 w kompaktowe i wszechstronne moduły. Jedyny problem polegał na tym, że cały projekt był przeznaczony dla lamp i zanim został ukończony, tranzystor zaczął już swój triumfalny chód. Wiedzieli, jak się spóźnić nie tylko w ZSRR - projekt Tinkertoy pochłonął ogromne sumy i okazał się całkowicie bezużyteczny.

Obraz
Obraz

Płyty standardowe

Drugie podejście do pakowania polegało na optymalizacji rozmieszczenia tranzystorów i innych elementów dyskretnych na standardowych płytkach.

Do połowy lat 40. konstrukcja punkt-punkt była jedynym sposobem zabezpieczania części (nawiasem mówiąc, dobrze nadających się do energoelektroniki i w tej pojemności dzisiaj). Ten schemat nie był zautomatyzowany i mało niezawodny.

Austriacki inżynier Paul Eisler wynalazł płytkę drukowaną do swojego radia podczas pracy w Wielkiej Brytanii w 1936 roku. W 1941 roku wielowarstwowe płytki drukowane były już stosowane w niemieckich magnetycznych kopalniach morskich. Technologia dotarła do Stanów Zjednoczonych w 1943 roku i została wykorzystana w bezpiecznikach radiowych Mk53. Płytki z obwodami drukowanymi stały się dostępne do użytku komercyjnego w 1948 r., a automatyczne procesy montażu (ponieważ komponenty były nadal do nich przymocowane na zawiasach) pojawiły się dopiero w 1956 r. (opracowane przez US Army Signal Corps).

Nawiasem mówiąc, podobną pracę w tym samym czasie w Wielkiej Brytanii wykonywał wspomniany już Jeffrey Dahmer, ojciec układów scalonych. Rząd zaakceptował swoje płytki z obwodami drukowanymi, ale mikroukłady, jak pamiętamy, zostały krótkowzroczne zhakowane na śmierć.

Do późnych lat sześćdziesiątych i wynalezienia płaskich obudów i złączy panelowych dla mikroukładów szczytem rozwoju płytek drukowanych wczesnych komputerów był tak zwany stos drewna lub opakowanie z kordu. Oszczędza dużo miejsca i był często używany tam, gdzie miniaturyzacja była krytyczna - w produktach wojskowych lub superkomputerach.

W konstrukcji z drewna kordowego elementy z wyprowadzeniami osiowymi zostały zainstalowane między dwiema równoległymi płytami i albo zlutowane razem za pomocą opasek drucianych, albo połączone cienką taśmą niklową. Aby uniknąć zwarć, pomiędzy płytami umieszczono karty izolacyjne, a perforacja umożliwiła przejście elementów składowych do kolejnej warstwy.

Wadą drewna sznurowego było to, że aby zapewnić niezawodne spawy, konieczne było zastosowanie specjalnych styków niklowanych, rozszerzalność cieplna mogła zniekształcić płytki (co zaobserwowano w kilku modułach komputera Apollo), a dodatkowo schemat ten zmniejszał łatwość konserwacji jednostki do poziomu współczesnego MacBooka, ale przed pojawieniem się układów scalonych, cordwood pozwalał na najwyższą możliwą gęstość.

Obraz
Obraz
Obraz
Obraz

Oczywiście pomysły optymalizacyjne nie skończyły się na planszach.

A pierwsze koncepcje pakowania tranzystorów narodziły się niemal natychmiast po rozpoczęciu ich seryjnej produkcji. BSTJ Artykuł 31: 3. Maj 1952: Obecny stan rozwoju tranzystorów. (Morton, J. A.) po raz pierwszy opisał studium „możliwości zastosowania tranzystorów w miniaturowych obwodach”. Bell opracował 7 rodzajów integralnych opakowań dla swoich wczesnych typów M1752, z których każdy zawierał płytkę osadzoną w przezroczystym plastiku, ale nie wyszedł poza prototypy.

W 1957 roku armia amerykańska i NSA zainteresowały się tym pomysłem po raz drugi i zleciły firmie Sylvania Electronic System opracowanie czegoś w rodzaju miniaturowych, szczelnych modułów z drewna sznurowego do użytku w tajnych pojazdach wojskowych. Projekt nazwano FLYBALL 2, opracowano kilka standardowych modułów zawierających NOR, XOR itp. Stworzone przez Maurice'a I. Crystala zostały wykorzystane w komputerach kryptograficznych HY-2, KY-3, KY-8, KG-13 i KW-7. Na przykład KW-7 składa się z 12 kart wtykowych, z których każda może pomieścić do 21 modułów FLYBALL, ułożonych w 3 rzędy po 7 modułów każdy. Moduły były wielokolorowe (w sumie 20 typów), każdy kolor odpowiadał za swoją funkcję.

Obraz
Obraz

Podobne bloki o nazwie Gretag-Bausteinsystem wyprodukowała firma Gretag AG w Regensdorf (Szwajcaria).

Jeszcze wcześniej, w 1960 r., Philips wyprodukował podobne bloki Serii-1, Serii 40 i NORbit jako elementy programowalnych sterowników logicznych zastępujących przekaźniki w przemysłowych systemach sterowania, seria miała nawet obwód czasowy podobny do słynnego mikroukładu 555. Wyprodukowano moduły Philipsa i jego oddziały Mullard i Valvo (nie mylić z Volvo!) i były wykorzystywane w automatyce fabryk do połowy lat 70-tych.

Nawet w Danii, przy produkcji Electrologica X1 w 1958 roku, zastosowano miniaturowe wielokolorowe moduły, tak podobne do uwielbianych przez Duńczyków klocków Lego. W NRD w Instytucie Maszyn Obliczeniowych na Politechnice w Dreźnie w 1959 roku profesor Nikolaus Joachim Lehmann zbudował dla swoich studentów około 10 miniaturowych komputerów, oznaczonych jako D4a, w których zastosowano podobny pakiet tranzystorów.

Prace poszukiwawcze trwały nieprzerwanie od końca lat 40. do końca lat 50. XX wieku. Problem polegał na tym, że żadna ilość sztuczek korupcyjnych nie mogła ominąć tyranii liczb, terminu ukutego przez Jacka Mortona, wiceprezesa Bell Labs w jego artykule z 1958 r. o Proceedings of the IRE.

Problem polega na tym, że liczba elementów dyskretnych w komputerze osiągnęła limit. Maszyny składające się z ponad 200 000 pojedynczych modułów po prostu okazały się niesprawne - pomimo tego, że tranzystory, rezystory i diody były już wtedy wysoce niezawodne. Jednak nawet prawdopodobieństwo awarii w setnych częściach procenta, pomnożone przez setki tysięcy części, dawało dużą szansę, że w danym momencie coś się zepsuje w komputerze. Instalacja naścienna, z dosłownie kilometrami okablowania i milionami styków lutowanych, pogorszyła sytuację. IBM 7030 pozostawał granicą złożoności maszyn czysto dyskretnych, nawet geniusz Seymoura Craya nie mógł sprawić, by znacznie bardziej złożony CDC 8600 działał stabilnie.

Koncepcja chipa hybrydowego

Pod koniec lat 40. Centralne Laboratoria Radiowe w Stanach Zjednoczonych opracowały tak zwaną technologię grubowarstwową - ślady i elementy pasywne nakładano na podłoże ceramiczne metodą zbliżoną do produkcji płytek drukowanych, a następnie tranzystory otwartej ramki przylutowane do podłoża i wszystko to zostało zapieczętowane.

Tak narodziła się koncepcja tzw. mikroukładów hybrydowych.

W 1954 roku Marynarka Wojenna przeznaczyła kolejne 5 milionów dolarów na kontynuację nieudanego programu Tinkertoy, armia dodała do tego 26 milionów dolarów. Firmy RCA i Motorola zabrały się do roboty. Pierwszy poprawił ideę CRL, rozwijając go do tzw. mikroukładów cienkowarstwowych, efektem prac drugiego był m.in. słynny pakiet TO-3 – chyba każdy, kto kiedykolwiek widział każda elektronika natychmiast rozpozna te potężne pociski z uszami. W 1955 roku Motorola wypuściła w nim swój pierwszy tranzystor XN10, a obudowa została dobrana tak, aby pasowała do mini-gniazda lampy Tinkertoy, stąd rozpoznawalny kształt. Wszedł również do wolnej sprzedaży i był używany od 1956 roku w radiach samochodowych, a potem wszędzie, takie obudowy są nadal używane.

Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych
Narodziny sowieckiego systemu obrony przeciwrakietowej. Długa droga do układów scalonych
Obraz
Obraz

Do 1960 hybrydy (ogólnie, jak je nazywano - mikro-zespoły, mikromoduły itp.) były stale używane przez wojsko USA w swoich projektach, zastępując poprzednie niezgrabne i ciężkie pakiety tranzystorów.

Najlepsza godzina mikromodułów nadeszła już w 1963 roku - IBM opracował także układy hybrydowe dla swojej serii S/360 (sprzedawane w milionach egzemplarzy, co założyło rodzinę kompatybilnych maszyn, produkowanych do tej pory i kopiowanych (legalnie lub nie) wszędzie - z Japonii do ZSRR), którą nazwali SLT.

Układy scalone nie były już nowością, ale IBM słusznie obawiał się o ich jakość i był przyzwyczajony do posiadania pełnego cyklu produkcyjnego w swoich rękach. Zakład był uzasadniony, mainframe nie tylko odniósł sukces, wyszedł tak samo legendarny jak IBM PC i dokonał tej samej rewolucji.

Oczywiście w późniejszych modelach, takich jak S / 370, firma przeszła już na pełnoprawne mikroukłady, choć w tych samych markowych pudełkach aluminiowych. SLT stał się znacznie większą i tańszą adaptacją maleńkich modułów hybrydowych (tylko 7, 62x7, 62 mm), opracowanych przez nich w 1961 roku dla IBM LVDC (komputer pokładowy ICBM, a także program Gemini). Co zabawne, układy hybrydowe pracowały tam w połączeniu z już pełnoprawnym układem scalonym TI SN3xx.

Obraz
Obraz

Jednak flirt z technologią cienkowarstwową, niestandardowymi pakietami mikrotranzystorów i innych był początkowo ślepym zaułkiem - półśrodkiem, który nie pozwolił przejść na nowy poziom jakości, dokonując prawdziwego przełomu.

Przełom miał polegać na radykalnym, o rzędy wielkości, zmniejszeniu liczby dyskretnych elementów i związków w komputerze. Potrzebne były nie skomplikowane montaże, ale monolityczne standardowe produkty, zastępujące całe podkładki desek.

Ostatnią próbą wyciśnięcia czegoś z klasycznej technologii było odwołanie się do tzw. elektroniki funkcjonalnej – próba opracowania monolitycznych urządzeń półprzewodnikowych, które zastępują nie tylko diody i triody próżniowe, ale także bardziej złożone lampy – tyratrony i dekatrony.

W 1952 roku Jewell James Ebers z Bell Labs stworzył czterowarstwowy tranzystor „steroidowy” - tyrystor, analog tyratronu. Shockley w swoim laboratorium w 1956 rozpoczął prace nad dopracowaniem seryjnej produkcji czterowarstwowej diody - dinistora, ale jego kłótliwa natura i początkowa paranoja nie pozwoliły na zakończenie sprawy i zrujnowały grupę.

Prace z lat 1955-1958 ze strukturami tyrystorów germanowych nie przyniosły żadnych rezultatów. W marcu 1958 r. RCA przedwcześnie ogłosiła 10-bitowy rejestr przesuwny Walmarka jako „nową koncepcję w technologii elektronicznej”, ale rzeczywiste obwody tyrystorowe germanu nie działały. Aby rozpocząć ich masową produkcję, potrzebny był dokładnie taki sam poziom mikroelektroniki, jak w przypadku obwodów monolitycznych.

Tyrystory i dinistory znalazły zastosowanie w technice, ale nie w technice komputerowej, po tym jak problemy z ich produkcją zostały rozwiązane przez nadejście fotolitografii.

Tę jasną myśl odwiedziły niemal jednocześnie trzy osoby na świecie. Anglik Jeffrey Dahmer (ale jego własny rząd go zawiódł), Amerykanin Jack St. Clair Kilby (miał szczęście dla całej trójki – Nagroda Nobla za stworzenie IP) i Rosjanin – Jurij Walentynowicz Osokin (wynik jest skrzyżowanie Dahmera i Kilby'ego: pozwolono mu stworzyć bardzo udany mikroukład, ale ostatecznie nie rozwinęli tego kierunku).

Porozmawiamy o wyścigu o pierwsze przemysłowe IP i o tym, jak ZSRR następnym razem niemal przejął priorytet w tej dziedzinie.

Zalecana: