Blog Doktora No

Blog geeka o komiksach, filmie, anime oraz nauce i technice - A Geek's blog about anime, film, sci and tech

„Tryumf Nerdów” („The Triumph of the Nerds: The Rise of Accidental Empires”), 1996

Niniejszy film dokumentalny, na podstawie książki jego narratora, Roberta X. Cringelya, przenosi nas za kulisy powstania komputerów osobistych; od zagraconych garaży pasjonatów elektroniki w Kalifornii, po luksusowe biurowce megakorporacji (Ciekawa jest prorocza wizja świata „post-pecetowego” wysnuta przez Larrego Ellisona, prezesa Oracle).

Fakty przedstawione są (obecnie) raczej znane i film ewidentnie ma swoje lata, jednak jest świetną kapsułą czasu lat 90-tych: eksplozji przemysłu IT, globalizacji, Internetu, dobrej koniunktury i beztroski, tuż przed parsknięciem bański internetowej, 11 Września, G.W.Bushem, wojną w Iraku i Wielką Depresją…

Weekend z Quick Basic 64

qb64Dawno temu, w latach 80-tych zeszłego wieku firma Microsoft, obok MS-DOSa i raczkującego Windowsa, sprzedawała kompilatory języka BASIC dla wczesnych „pecetów” pod nazwą GW-BASIC a następnie QuickBasic. Był on stosunkowo popularny, zarówno do celów edukacyjnych i profesjonalnych, aż zastąpiony został przez Visual BASIC (który sam został wyparty przez min. makra MS Office i BASIC dla .NET), po czym już pokrył się kurzem zapomnienia, wykorzystywany już jedynie przez zagorzałych entuzjastów… 8)  Czytaj dalej

Douglas Engelbart nie żyje.

Wczoraj zmarł Douglas Engelbart (ur. 30.01.1925), amerykański informatyk, wynalazca myszki komputerowej, jeden z pionierów Internetu i graficznego interfejsu użytkownika. Już w 1968 roku zaprezentował publicznie eksperymentalny system komputerowy ukazujący przedsmak ówczesnej przyszłości: edytory tekstu, wspolną prace kilku osób poprzez sieć i graficzną prezentacje danych komputerowych:

[*]

Relacja z „Intel Outside Party I”, czyli srebrne czasy komputerów typu Amiga.

Przed obejrzeniem niniejszego materiału zalecam przeczytanie mojej notki „25 lat komputerów Amiga”. Film został nagrany na zlocie członków tzw. sceny, czyli „ludzi wykorzystujących komputer do innych celów niż gry i praca i uważających się za twórców”. W praktyce była to subkultura miłośników komputerów, dla których samo obcowanie z tą technologią było jej głównym kryterium, i której członkowie to za szczyt sztuki uważali obrazki i animacje zrobione na komputerze, przez co sam fakt ich zrobienia na tej maszynie był według nich dowodem na ich artyzm. W sumie jest to kronika czasów, w których informatyka miała jeszcze posmak czegoś niezwykłego i niedostępnego dla przeciętnego człowieka, w przeciwieństwie do naszej dzisiejszej postcyfrowej epoki

PS. Jako że materiał jest długi, pełen niezrozumiałego slangu itp. to około 35 minuty Robert „Mr.Root” Korzeniewski wyjaśnia przystępnie o co w tym chodzi. 😛

Czterdzieści lat mikroprocesora

Był mały, niepozorny i zamknięty w ceramicznej obudowie ze złoconymi stykami. Zadebiutował na rynku podzespołów elektronicznych 40 lat temu, 15 Listopada 1971 roku, i mimo swej niepozorności odegrał przełomową rolę w historii naszej cywilizacji naukowo-technicznej, porównywalną z programem Apollo. Nosił oznaczenie 4004 i był produkowany przez firmę Intel, jako "serce" prototypowego japońskiego kalkulatora. Mowa oczywiście o pierwszym komercyjnie dostępnym mikroprocesorze, opracowanym przez naturalizowanego w USA włoskiego inżyniera-elektronika Federico Faggina, od którego to zaczęło się mikroprocesorowy szał, któremu zawdzięczamy narodziny współczesnej cywilizacji informatycznej. 

Pierwsze zastosowania były raczej skromne, i ograniczały się do wspomnianych na początku kalkulatorów firmy Busicom oraz terminali dla dużych komputerów, ale już w latach siedemdziesiątych pojawiły się pierwsze prymitywne mikrokomputery, takie jak Altair 8800 i Scelbi, czy bardziej wyrafinowane maszyny Commodore PET i Apple I, a w następnej dekadzie ruszyła niepowstrzymana lawina komputerowej rewolucji, której krokami następnymi milowymi były komputery ZX Spectrum (procesor Zilog Z80, również "dziecko" Faggina), Commodore 64 (MOS Technology 6502), Apple Macintosh i Commodore Amiga (procesory Motorola 68000) i IBM PC (Intel 8086). I tak, krok po kroku, doszliśmy do współczesności, w której telefony komórkowe mogą poszczycić się wielordzeniowymi procesorami o możliwościach niewyobrażalnych 20 lat temu nawet dla ówczesnych superkomputerów. 

Schemat architektury procesora 4004. (Źródło: Wikipedia)
Należy pamiętać o tym, że procesor – obok niezbędnych rejestrów, układów kontrolnych, liczników, wewnętrznej szyny itp. składa zasadniczo się z dwóch elementów: jednostki arytmetycznej (ALU), dokonującej operacji logicznych i podstawowych działań matematycznych na liczbach (na schemacie oznaczona jest symbolem przypominającym literę "V") i jednostki interpretującej rozkazy języka maszynowego. Rewolucyjność idei mikroprocesora 4004 polegała na tym że w jednym układzie znalazły się te oba układy; wcześniej musiały być zainstalowane w komputerze osobno (np. ALU w latach 60-tych XX występowało w postaci układu scalonego 74181), co skutecznie uniemożliwiało miniaturyzacje sprzętu.

4004 był, jak przystało na pionierską konstrukcje, skromny. Miał zaledwie 4 bitową szynę danych (i na takich liczbach operował) i działał na zegarze 740 kHz, przyjmując ośmio i szesnastobitowe polecania języka maszynowego, operując na dwunastobitowej przestrzeni adresowej. Do kompletu Intel produkował min. układy 4001 (pamięć ROM), 4002 (RAM) i 4003 (rejestr przesuwny, do obsługi sygnałów wejścia/wyjścia), które razem z 4004 stanowiły kompletny system komputerowy na jednej płytce drukowanej, zwany MCS-4

Mikroprocesory 4004 nie są już produkowane od 1981 roku, tak więc ciekawscy maniacy asemblera mogą najwyżej pobawić się emulatorami 4004 dostępnymi min. na tej stronie. Pozostali mogą podziwiać podziwiać zrekonstruowane maski dla struktur krzemowych i schematy na stronie 4004.com, pamiętając przy tym o tym, że pierwsze wielkie kroki dla ludzkości są zawsze niepozorne…

P.S. Przypominam na koniec, że mówimy tu o pierwszym komercyjnym mikroprocesorze; rok wcześniej od 4004 wprowadzono bardzo zaawansowany układ scalony dla amerykańskiego myśliwca F-14, co ujawniono dopiero w 1998 roku…

Fot. na górze: Konstantin Lanzet, na licencji GNU

Uczmy nasze dzieci programowania! – c.d.

Nieco ponad rok temu napisałem, w kontekście nauczania informatyki w szkołach, że szkoła "powinna uczyć podstaw zaplecza teoretycznego współczesnej informatyki, gdyż obsługi programów użytkowych można nauczyć się chociażby z instrukcji obsługi. Dzieciaki opuszczając gimnazjum w XXI wieku powinny mieć świadomość, że cała "magia" komputerów polega na tym, że po prostu wykonują one po kolei zadane polecenia, bez ustanku licząc. Taką wiedzę może im dać tylko nauka programowania.".

Ostatnio znalazłem kolejny argument na rzecz nauki programowania w szkole, w postaci wykład Conrada Wolframa na TED Talk w Oxfordzie, poświęcony nauczaniu matematyki w szkole, jako przedmiotu wyjątkowo istotnego dla rozwoju naszej cywilizacji. Pan Wolfram twierdzi, że zamiast tępego uczenia dzieci liczenia, powinny być one uczone matematyki przy pomocy komputerów, a dokładnie ich programowania, z naciskiem na logiczne myślenie i formułowanie problemów:

Dennis Ritchie – c.d.

Taką fajną laurkę znalazłem w temacie wynalazku Ritchiego – piosenka „Write in C”, na melodie „Let it Be” Beatelsów: 

A tu stary filmik z 1982 roku z udziałem pana Richiego, opowiadający o podstawowej budowie i założeniach Unixa:

A co potrafił ówczesny Unix? Przy pomocy specjalnych tzw. głupich terminali można było pracować nad kilkoma rzeczami na raz na jednej maszynie w graficznym środowisku w stylu Macintosha. Już 30 lat temu!

Dennis Ritchie nie żyje.

Jak donosi „Computerworld”, 8 października zmarł w wieku 70 lat (ur. 9 Września 1941) Dennis MacAlistair Ritchie, wybitny amerykański informatyk, laureat Nagrody Turinga i National Medal of Technology, twórca języka programowania C i systemów operacyjnych Multics i Unix (z którego wywodzą się min. systemy Linux, Android i Mac OS X) – nieocenionych fundamentów współczesnej informatyki.

Po lewej: zdjęcie Dennisa Ritchiego na ceremonii wręczenia National Medal of Technology w 1998 roku, po prawej: rekonstrukcja ekranu systemu Unix na przełomie lat osiemdziesiątych i dziewięćdziesiątych XX wieku (For. Liberal Classic, na licencji GNU).

Postanowiłem uczcić pamięć Ritchiego następującym prostym programikiem w języku C:

#include <stdio.h>
#include <stdlib.h>

int main(void) {

	printf("+-----------------------+\n");
	printf("|     Dennis Ritchie    |\n");
	printf("|09.09.1941 - 08.10.2011|\n");
	printf("+-----------------------+\n");

	return EXIT_SUCCESS;
}

 

Goodbye, Apple!

Niedawno info-świat obiegła wiadomość o rezygnacji szefa Apple, Steva Jobsa ze swojego stanowiska. W różnych zakątkach Internetu słychać peany na cześć Jobsa, ale osobiście jestem sceptyczny co do okrzyknięcia go geniuszem, któremu świat zawdzięcza Bóg-raczy-wiedzieć-co w dziedzinie komputeryzacji i ogólnej zmiany świata na lepszy i do tego jeszcze "luzaka" w jeansach przeciwstawianego drętwemu "garniturowcowi" ze świata pecetów.

Dodatkowo zastanawia mnie stosowanie taryfy ulgowej przez ludzi o poglądach lewicowo liberalnych (jak pan Orliński) do kapitalisty i szefa wielkiego koncernu, który bezwzględnie maksymalizuje swoje zyski min. poprzez korzystanie z taniej siły roboczej w Chinach, zlecając produkcję iPhonów cieszącej się złą sławą firmie Foxconn, której pracownik był torturowany po zgubieniu prototypu iPhona (dla porządku: żaden producent elektroniki nie jest święty z tych samych powodów – chodzi mi o równoważność miar). Poza tym Jobs jest znany z raczej niechętnego udzielaniu się charytatywnie – resztę podobnych krytycznych obserwacji można przeczytać w "Foreign Policy"

Panowie Jobs i Wożniak z Apple’a z pewnością mają swoje zasługi, min. w wypromowaniu graficznego interfejsu użytkownika (opracowanego przez Rank Xerox dla komputera Alto), ale nawet w latach 80-tych większe zasługi od Apple’a w masowej komputeryzacji miały gorsze ZX Spectrumy, Atari, Commodore i Amigi. W latach 90-tych IBMowskie pecety, mimo iż mało estetyczne, toporne i dostosowane raczej do biur a nie mieszkań, ale jednak tańsze, wprowadziły miliony ludzi w świat informatyki i Internetu. Podobnie z telefonami komórkowymi: to Nokia a nie Apple "dało" do rąk miliardów (sic!) ludzi tanie aparaty telefonii komórkowej.

Trzonem współczesnej informatyki są otwarte standardy z których to korzysta Apple (a nie odwrotnie), dzięki którym min. mógł powstać Internet, oraz różne szare eminencje, w postaci np. Linuxa, którego to można znaleźć w wielu serwerowniach, centrach superkomputerowych czy telefonach komórkowych z systemem Android.

Jeżeli już jesteśmy przy otwartym oprogramowaniu, to trzeba wspomnieć, że dzięki niemu powstał "ekosystem" informatyczny umożliwiający każdemu łatwy start bez potrzeby ponoszenia kosztów zakupu i licencji (na marginesie: rdzeniem systemu Mac OS X jest Darwin, czyli mutacja otwartej dystrybucji Unixa FreeBSD).

"Pod maską" typowy komputer Apple w niczym nie różni się od zwykłych "pecetów" – ten sam producent procesorów (Intel) te same karty graficzne itp. – jak pokazują przykłady tzw. Hakintoshy bez problemu można skompletować zestaw komputerowy będący funkcjonalnym odpowiednikiem Maca, bez potrzeby ponoszenia większych kosztów.

Jaki jest sens kupowania drogiego sprzętu Apple, gdy można kupić jego tańszy odpowiednik, i gdy większość rzeczy jest wykonywana przy pomocy albo przeglądarki internetowej, albo ustandaryzowanych programów w stylu Photoshopa lub Microsoft Office? Dodatkowo upowszechnianie się języków skryptowych (PHP, Python), technologii maszyn wirtualnych (Java, C#), technik wirtualizacji oraz aplikacji webowych bazujących na HTML5, CSS 3 i AJAXie jeszcze bardziej niweluje różnice między platformami.

Reasumując: nie negując zasług, nie mogę powiedzieć z ręką na sercu że Steve Jobs był jakimś wielkim wspaniałomyślnym wynalazcą, wobec którego ludzkość ma jakiś wielki dług wdzięczności. Po prostu – to jeden z wielu przedsiębiorców. A reszta jego image’u – to marketing. Który jak widać skutkuje, widząc rekordowe wyniki sprzedaży iPadów, iPodów i innych iGadżetów…
 

Do poczytania:

Did Steve Jobs make the world a better place?

A History of the GUI

25 lat komputerów Amiga

Uczmy nasze dzieci BASICa!

Dawno temu, w epoce komputerów 8-mio bitowych, każdy użytkownik tych maszyn musiał zapoznać się z językiem BASIC, nawet po to, aby załadować grę czy program użytkowy do pamięci.

Zaowocowało to lepszą znajomością możliwości sprzętu i oferowanych przez niego możliwości, oraz sprzyjało jego bardziej twórczemu wykorzystywaniu.

W dzisiejszych czasach, gdzie obsługa komputera jest banalnie prosta i intuicyjna, widać pewien regres, gdyż użytkownicy nie widzą potrzeby pogłębiania swej wiedzy i umiejętności. 

Jest to szczególnie frustrujące w przypadku dzieci i młodzieży, które to marnują czas na bierne przeglądanie internetu i granie, zaprzepaszczając możliwości jakie daje nowoczesna technologia w dziedzinie edukacji i rozwoju intelektualnego.

Wbrew obiegowej opinii, obecność komputerów w domach NIE poprawia wyników w nauce, gdyż są one często wykorzystywane do rozrywki, w szczególności gier i Internetu, odrywając dzieci od nauki. Dowodem na to niech będą badania poczynione w Rumunii przez profesora Ofera Malamuda, według których obecność komputerów podnosi co prawda znajomość obsługi tych urządzeń, ale kosztem wyników w szkole.

Postanowiłem sprawdzić, czy w Polsce istnieje obowiązek nauczania programowania w szkole. Poguglałem za publikacjami poświęconymi podstawie programowej nauczania informatyki w gimnazjum, i uderzyło mnie to, że poza jednym napomknięciem o języku LOGO, nie ma ani słowa o wymogu nauczaniu programowania w konkretnym języku wysokiego poziomu na lekcjach informatyki w gimnazjum. Jest nauczanie podstawy algorytmów ale to wszystko. Większość wymagań programowych dotyczy uczenia obsługi systemu Windows, edytora tekstu, arkusza kalkulacyjnego, programów do grafiki i Internetu itp. – można to zobaczyć w założeniach reformy programowej Ministerstwa Edukacji Narodowej. W liceach programowanie ma status "materiałów nadobowiązkowych", co jest moim zdaniem nieporozumieniem.

Mam duże wątpliwości co do takiego postępowania, gdyż większość tych rzeczy dzieciaki mogą się dowiedzieć od rówieśników, rodziców czy prasy komputerowej. Twórcy reformy programowej w MENie zapominają, że nasycenie technologią informatyczną samo z siebie wymusza elementarną wiedzę na ten temat wśród najmłodszych. Mam na myśli wiedzę na poziomie powierzchownym, charakterystycznym dla szarego użytkownika.  

Dlatego szkoła powinna iść krok dalej, i powinna uczyć podstaw zaplecza teoretycznego współczesnej informatyki, gdyż obsługi programów użytkowych można nauczyć się chociażby z instrukcji obsługi. Dzieciaki opuszczając gimnazjum w XXI wieku powinny mieć świadomość, że cała "magia" komputerów polega na tym, że po prostu wykonują one po kolei zadane polecenia, bez ustanku licząc. Taką wiedzę może im dać tylko nauka programowania.

I nie jest to wcale "sztuka dla sztuki". Trudno wyobrazić sobie, aby kierowca samochodu nie wiedział jak działa silnik czterosuwowy, mechanik nie miał pojęcia o podstawowych prawach fizyki, a lekarz nie znał się na biologii. Podstawowa wiedza z dziedziny programowania sprzyja bardziej dogłębnemu poznaniu tajników funkcjonowania systemów operacyjnych i oprogramowania, co może zaprofitować wyższą kulturą techniczną, rozumianą jako bardziej twórcze wykorzystywanie możliwości jakie daje technologia. Pierwszy kontakt z komputerem w roli programisty może wzbudzić zainteresowanie informatyką wśród uczniów, co ma potencjalnie duży wpływ na  wybór drogi edukacji i kształcenia zawodowego.

Jaki język wybrać do szkolnych pracowni? Moim zdaniem oczywistym wyborem jest język BASIC, pomyślany od początku swego istnienia jako narzędzie edukacyjne. Dlaczego nie słynny Pascal? Pascal jest już zbyt skomplikowany jak na pierwszy kontakt z językiem programowania, gdyż rozróżnia on typy zmiennych i posiada złożone typy danych (w najnowszych wersjach posiada nawet wskaźniki i obiekty).

Jeśli chodzi o BASICa, to do wyboru mamy sporo mutacji tego języka, min. VisualBASIC Microsoftu, czy FreeBASIC, ale na szczególną uwagę zasługuje darmowy, na otwartym źródle, język BASIC-256 (dawniej KidsBASIC), pomyślany jako język dla dzieci i młodzieży szkolnej. 

Okno BASIC-256 z programem do rysowania fraktali.

Jest on dostępny w wersji na Linuxa i Windows i posiada zintegrowane środowisko programistyczne, umożliwiające łatwą edycję kodu, podgląd grafiki, podgląd zmiennych i wyjście tekstowe. Sama aplikacja nie jest skomplikowana, pewną niedogodnością może być brak polskiego tłumaczenia interfejsu i dokumentacji.  Nauka programowania z użyciem tego narzędzia powinna polegać na tworzeniu prostych programów, które pozwalały by na ogarnięcie przez uczniów zmiennych, instrukcji warunkowych, iteracji itp., w celu np. rozwiązywania zadań z matematyki (np. rozwiązywanie równań z dwiema niewiadomymi), czy zabawy w tworzenie grafiki (proszę mi wierzyć, dzieci to lubią). 

Reasumując: nauczanie programowania powinno być obowiązkowe w gimnazjum i liceum. Do tego celu idealnie nadaje się język BASIC, a w szczególności BASIC-256. Nie rozumiem argumentu w stylu "to jest za trudne dla dzieciaków", gdyż jest to po prostu nieprawda. Gdybyśmy kierowali się podejściem, że wiele rzeczy jest za trudnych dla dzieci (bo muszą się ich nauczyć, w toku edukacji, często najeżonej niepowodzeniami) to najlepiej to by było w ogóle ich niczego nie uczyć.

Do poczytania:

http://www.basic256.org

"Why Johnny can’t code?"

 

25 lat komputerów Amiga

Logo Amiga

W ten weekend upłynęła nam ciekawa rocznica ze świata informatyki: 25 lat temu, na uroczystej gali w nowojorskim Lincoln Centre, z udziałem m.in. Andiego Warhola, firma Commodore zaprezentowała swój nowy produkt: komputer osobisty Amiga 1000.

Dla przypomnienia: Amiga (hiszp. „przyjaciółka”) była handlową nazwą serii komputerów 16- i 32-bitowych produkowanych w latach 1985-1994 przez firmę Commodore Business Machines, opracowanych przez zespół informatyków pod kierownictwem Jaya Minera. Amigi były postrzegane, podobnie jak ich rywale, komputery firmy Atari, jako „trzecia droga” pomiędzy Macintoshami Apple’a i pecetami IBM. Historia tej marki była pasmem spektakularnych sukcesów które skończyły się wraz z dekadą lat 90-tych XX wieku…

Pierwsze demo na Amidze: skacząca piłka (Boing Ball). Warto zwrócić uwagę na stereofoniczny dźwięk i symulacje odbić zgodną z prawami fizyki.

Kilka reklam z lat 80-tych. Prawdziwym kuriozum na skalę światową było to, że firma Commodore potem w ogóle (Sic!) nie reklamowała swoich produktów na taką skalę:

W okresie swej świetności Amigi wyróżniały się na tle innych konstrukcji bardzo dobrymi możliwościami graficznymi i muzycznymi – o czym powiem za chwilę – osiągniętymi dzięki unikalnemu zestawowi dedykowanych układów scalonych przetwarzających dźwięk, grafikę i zarządzających pamięcią.

Gorąco polecam następujący materiał filmowy, w którym pokazano możliwości Amigi, oraz ówczesne oprogramowanie (kilka gier, oprogramowanie biurowe, „Deluxe Paint III” i program do czołówek wideo):

http://www.archive.org/details/amiga_3

Lata 1985-1991

Amiga 1000

Pierwszy model z całej rodziny, wyposażony w mikroprocesor Motorola 68000 taktowany zegarem 7 Mhz, i 256kB pamięci RAM. Nośnikiem danych była stacja dyskietek o pojemności 880kB. System operacyjny był ładowany z specjalnej dyskietki startowej, który to w późniejszych modelach został w całości zapisany w kościach ROM, aby uniknąć problemów w przypadku jej zniszczenia lub zgubienia.

Amiga 2000 i Amiga 500

Nowy model Amigi z 1987 roku, oznaczony numerem 2000 posiadał, obok standardowych 512 kB RAM, liczne sloty rozszerzeń, umożliwiające podłączanie min. kart graficznych, kontrolerów twardych dysków, rozszerzeń pamięci itp.

Amiga 500. Fot. © Bill Bertram 2006, na licencji CreativeCommons

Amiga 500 była jego zubożonym wariantem, bez slotów, z kompaktową obudową zawierającą w sobie komputer i klawiaturę, tak jak „kultowy” ośmiobitowiec Commodore 64. Amiga 500 była bodaj najpopularniejszym modelem ze wszystkich Amig i wielkim hitem, który przełożył się na promocje tej platformy. „Pięćsetka” potem doczekała się ulepszonego wariantu, Amigi 500+, wyposażonej w 1MB RAMu i nowszy system operacyjny w wersji 2.04.

Amiga 3000

Pierwszy 32-bitowy model Amigi, wyposażony w procesor Motorola 68030 i standardowo 2MB pamięci. Tak jak Amiga 2000 (która w międzyczasie doczekała się unowocześnionego kuzyna, model 2500) posiadał sloty rozszerzeń, a także kontroler twardych dysków SCSI i gniazdo dla standardowego monitora do komputera IBM PC (standardowo Amiga miała sygnał wizyjny kompatybilny z telewizyjnym, więc do monitora komputerowego nie dało się jej bezpośrednio podłączyć, za wyjątkiem późniejszych modeli).

Ten model uchodził za najbardziej udany i jednocześnie najdroższy. Commodore wypuściło też wariant „trzytysiączki” pracujący pod systemem UNIX, przeznaczony do pracy jako stacja robocza, względnie serwer w sieciach Novell.

Prezentacja możliwości Amigi 3000 w studio programu telewizyjnego „Computer Chronicles” amerykańskiej telewizji PBS:

http://www.archive.org/details/amiga3000

Unikalną cechą tej rodziny komputerów był system operacyjny, w 100% „okienkowy”, chwalony za przyjazność dla użytkownika, posiadający wiele bardzo cennych rozwiązań inspirowanych unixem (min. wielozadaniowość). W porównaniu z Windows 3.1 (który był ledwie nakładką na MS-DOSa) czy ówczesnym Mac OSem był to wielki krok do przodu. Możliwość uruchamiania współbieżnego kilku programów na raz jest dzisiaj rzeczą trywialną, ale wtedy było czymś niespotykanym wśród komputerów osobistych, tak, że np. NASA aż do lat dwutysięcznych wykorzystywała rozbudowane Amigi do odbioru danych telemetrycznych.

Amiga w NASA

Amiga miała nawet możliwość uruchomienia jednocześnie kilku programów na różnych ekranach, w różnych rozdzielczościach i paletach barw (ale nie na dwóch osobnych monitorach, chyba że mieliśmy dodatkową kartę graficzną). Jądrem systemu był mikrokernel, którym były dwie rezydentne biblioteki exec.library i dos.library. Te biblioteki, podobnie jak sterowniki do standardowego sprzętu oraz biblioteki odpowiedzialne za obsługę grafiki i dźwięku, były zapisane w kościach ROM noszących nazwę „Kickstart”. Reszta systemu, czyli komendy shella, pozostałe sterowniki, programy użytkowe itp. były umieszczane na dyskietkach lub twardych dyskach i nosiły nazwę „Workbench”.

Workbench 1.3

Workbench w wersji 1.3 (Amiga 500/2000).

Grafika była najmocniejszą stroną Amigi, w przeciwieństwie do 8-bitowego dźwięku, który co prawda bił na głowę „piszczałki” montowane w ośmiobitowcach, ale już nie mógł równać się z pecetowskim 16-bitowym Sound Blasterem. Modele z pierwszym chipsetem OCS i nieznacznie unowocześnionym ECS potrafiły wyświetlić grafikę w rozdzielczości 320×240 pikseli (pomijając tzw. overscan) z 32 kolorami. Ilość kolorów można było zwiększyć poprzez specjalne tryby: EHB (64 kolory, powstałe z zduplikowania i przyciemnienia palety 32 kolorów) i HAM (4096 kolorów, za cenę  artefaktów na obrazie tzw. rampy). Maksymalna rozdzielczość wynosiła 640×480 pikseli w 16 kolorach (lub 1024×768 w chipsecie ECS, również w 16 barwach). Sama liczba kolorów i rozdzielczości to nie wszystko, cała praca związana z obsługą palety barw i przetwarzania grafiki była wykonywana przez procesory graficzne Blitter i Copper odciążające procesor główny.

HAM6

Przykładowy obrazek w trybie HAM (4096 kolorów), prawdopodobnie w programie „Brillance” „Photon Paint”.

Standardem (porównywalnym do pozycji Photoshopa na współczesnych maszynach) w tworzeniu grafiki był program Deluxe Paint firmy „Electronic Arts” (obecnie znanej z produkcji gier pod marką „EA Games”), specjalnie stworzony do obsługi chipsetu tego typu komputera i jego trybów graficznych.

Deluxe Paint V

Deluxe Paint V, ostatnia wersja programu, z grafiką w 256 kolorach.

Amiga była komputerem bardzo popularnym w Europie (szczególnie w Niemczech i Polsce), a to z dwóch względów. Po pierwsze w USA panowało przeświadczenie o tym, że komputer powinien być do pracy, a do gier konsola, a Amiga była modelowym przykładem „komputera domowego”, tj. takiego, który może zarówno służyć do zabawy, jak i pracy, więc miała powodzenie w Europie, gdzie panowało zapotrzebowanie na takie maszyny. Sprzyjał też temu fakt kompaktowej obudowy Amigi 500 oraz możliwość wykorzystania telewizora w charakterze monitora. A po drugie Commodore nie potrafiło odpowiednio zareklamować swego sprzętu na amerykańskim rynku…

Lata 1991-1994

W tym czasie wprowadzono nowy chipset AGA, umożliwiający uzyskanie 256 kolorów lub ćwierć miliona (tryb HAM8) w dowolnej rozdzielczości oraz podłączenie monitora Multisync SVGA. Niestety, wydajność chipsetu nie była imponująco większa od OCS/ECSu, a Commodore planowało zresztą wprowadzenie w pełni 24-bitowych kości AAA w prototypowym modelu Amiga 5000, tak więc AGA był tylko pośrednim krokiem.

Workbench 3.0

Workbench 3.0 (Amiga 1200/4000)

Ukazały się dwa modele, Amiga 1200 i Amiga 4000, wykorzystywały ten zestaw chipów, będąc komputerami w pełni 32-bitowymi (odpowiednio: procesory 68EC020 i 68040), z wbudowanymi kontrolerami twardych dysków. System operacyjny Workbench 3.0 posiadał wiele nowatorskich rozwiązań: modularną konstrukcje bibliotek budujących interfejs graficzny (programiści mogli tworzyć własne klasy budujące poszczególne elementy), odpowiedniki współczesnych kodeków (tzw. Datatypes) i odpowiednik Panelu Sterowania (tzw. „preferencje”).

Amiga 1200 była udanym następcą Amigi 500, z kolei Amiga 4000 była modelem przeznaczonym do pracy profesjonalnej, tak jak modele 2000 i 3000.

Amiga 4000

Amiga 4000.

A’propos zastosowań profesjonalnych: w tym czasie Amigi były szeroko wykorzystywane do obróbki filmów wideo, gdyż sygnał wizyjny był w pełni zgodny z normami sygnału wideo, dzięki czemu można by było bardzo prosto (gdyż układ wizyjny dostarczał informacje o przeźroczystości do zewnętrznego urządzenia) nakładać obraz z komputera na obraz wideo, przy pomocy urządzeń zwanych genlockami. W USA popularność Amig w studiach wideo była tym większa, że na tamtejszym rynku obecne były karty wideo VideoToaster, wraz z znakomitym programem do grafiki 3D LightWave (rozwijanym po dzień dzisiejszy przez firmę NewTek).

Ten program, w zestawie z kartą VideoToaster, był wówczas standardem Hollywood i był wykorzystywany do produkcji min. „Star Trek VI”, „RoboCop 2”, „Parku Jurajskiego” Spielberga czy do realizacji serialu „SeaQuest DSV” w 1994 roku. W prasie komputerowej czytałem artykuły, że Amigę kupowało się w tym okresie właśnie dla bardzo dobrego oprogramowania do grafiki 3D, oprócz wspomnianego LightWavea prym wiodły programy takie jak Real 3D, Calligari 3D i Cinema 4D.

Na Amidze 4000 swoją przygodę z grafiką i animacją zaczynał pan Tomasz Bagiński, światowej sławy animator, autor nominowanej do Oscara „Katedry”. Można od razu zapytać, jak to się stało, że Commodore nie wykorzystywało tak znakomitej okazji do promocji swego produktu, jaką było wykorzystanie ich w studiach filmowych i TV (pełna lista)?

Dokładnie to samo pytanie zadawali sobie wtedy dziennikarze prasy komputerowej i użytkownicy Amig, i odpowiedzi nie znaleźli innej, niż niekompetencja kierownictwa firmy…

W 1991 roku Commodore wypuściło na rynek pierwszy komputer z wbudowanym napędem CD-ROM. Mowa o komputerze CDTV, który komputerem był tylko z zasady działania, gdyż wyglądem zewnętrznym przypominał odtwarzacz płyt kompaktowych, i był pomyślany jako sprzęt RTV. Niestety, była to zbyt wczesna próba wprowadzenia komputerów jako center rozrywki elektronicznej, dodatkowo dało znać o sobie tragicznie marne rozeznanie Commodore w realiach tego rynku. Produkt kompletnie nie chwycił, ukazało się bardzo mało płyt CD-ROM z oprogramowaniem na ten komputer, a i tak często były to programy na Amigę 500 przerzucone na kompakt lub składanki obrazków itp.

Amiga CDTV

Amiga CDTV (proszę zwrócić uwagę na pilot, będący jednocześnie klawiaturą i joypadem).

Inną totalną porażką był model Amiga 600, wprowadzony w tym samym roku. W zasadzie był to komputer o możliwościach Amigi 500+, tylko jeszcze bardziej ograniczony w zakresie rozbudowy. Właśnie ten fakt, podobnie jak mała moc obliczeniowa, były przykładami na stagnację marki i kiepski marketing Commodore.

OLYMPUS DIGITAL CAMERA

Amiga 600 – zły krok w złym kierunku ze strony Commodore…

Bardziej udaną próbą wprowadzenia Amigi do w świat multimediów była konsola CD32, bazująca na Amidzę 1200, będąca pierwszą konsolą do gier 32-bitową, z prostym akceleratorem graficznym (kość Akiko). Tym razem szczęście dopisało; ukazało się wiele znakomitych gier w pełni wykorzystujących możliwości płyt kompaktowych, min. „Microcosm”. Commodore planowało wypuścić moduł sprzętowego dekodera filmów MPEG, ale pomysł nie chwycił, po części ze względu na małą popularność płyt VideoCD. Niestety, wkrótce rynek konsol do gier został wywrócony do góry nogami przez Sony PlayStation pierwszej generacji i Amiga CD32 nie miała juz racji bytu, tak jak konkurencyjny Atari Jaguar…

Amiga CD32

Lata 90-te były ciężkim okresem dla platform alternatywnych dla „pecetów”. IBM otworzył standard swoich komputerów, dzięki czemu masowo powstawały niezliczone ich modele i komponenty firm trzecich, dzięki czemu doszło do ustandaryzowania się komputerów osobistych na całym świecie na tą modłę.

Dodatkowo Intel nadrobił wszelkie zaległości względem Motoroli wprowadzając procesory serii Pentium, a producenci kart graficznych prześcignęli parametrami swoich wyrobów dedykowane układy Atari (które wtedy zbankrutowało) i Amig. Nawet Apple miało wówczas poważne problemy, od których odbiło się dopiero w 1998 roku, po powrocie Steva Jobs’a i radykalnej zmianie strategii marketingowej.

Po roku 1994

Upadek firmy Commodore w 1994 roku był ostatecznym ciosem i gwoździem do trumny. Mieliśmy jeszcze wznowienie produkcji Amig 1200 i 4000 w latach 1995-1996 przez firmę Escom, ale to już był koniec. Streszczenie tego wszystkiego co się wtedy działo było by tak samo sensowne jak streszczanie latynoamerykańskiej telenoweli. Właściciele firmy Amiga Technologies zmieniali się jeden po drugim, a liczni hobbyści i firmy trzecie łatali usterki w nie rozwijanym przez producenta sprzęcie i oprogramowaniu poprzez coraz bardziej wymyślne karty rozszerzeń, które coraz bardziej redukowały pierwotny sprzęt do roli zasilacza i kontrolera klawiatury, oraz nakładki programowe.

Pewną mutacją Amigi były wyspecjalizowane stacje do obróbki filmów wideo, Draco i Casablanca, w których to przestarzałe układy AGA zastąpiono kartami graficznymi.

Niby powstały nowe konstrukcje nawiązujące do oryginałów, tak jak AmigaOne, wraz z systemem AmigaOS 4.0, ale wystarczy że wspomnimy że producent tej pierwszej już zbankrutował, sprzedając ledwie 1500 płyt głównych…

Oprócz kolekcjonerskich modeli Amig produkcji Commodore i Escomu oprogramowanie na ten komputer można uruchomić na emulatorze WinUAE i jego unixowych wersjach. Ciekawostką może być Minimig, czyli Amiga zbudowana z programowalnych układów scalonych FPGA, w pełni kompatybilna z pierwowzorem.

***

Nie będę ukrywał, że cała ta historia ma pewien wymiar osobisty dla mnie: Amiga 500 była moim pierwszym komputerem w życiu. Do dziś pamiętam swoje pierwsze programy w AmigaBASICu i wpisywane komendy shella, czy noce spędzone nad grą „Civilization”.