Blog Doktora No

Blog geeka o komiksach, filmie, anime oraz nauce i technice - A Geek's blog about anime, film, sci and tech

„Nerds 2.0.1: A Brief History of the Internet”, (1998)

Na Nowy Rok kolejny ciekawy dokument: sequel do wcześniejszego „Tryumfu Nerdów” Roberta X. Cringelya, opowiadający, zgodnie z tytułem, krótką historię powstania internetu, od laboratoriów uniwersyteckich i rządowych po globalną rewolucję telekomunikacyjną na skalę globalna. Ciekawe jest to, że tak jak w przypadku komputerów PC, pierwotni wynalazcy nowych technologii nie dorobili się wielkich pieniędzy i sławy (co stawia pojęcie „innowacyjnej gospodarki” w trochę innym świetle niż zwykle).

Tak jak poprzednio, mamy  przed sobą kapsułę czasu końca lat 90-tych XX wieku, tuż przed pęknięciem bańki internetowej i innych kryzysów wieku XXI…

https://www.youtube.com/watch?v=oMvASPzXE-M

Czytaj dalej

„Tryumf Nerdów” („The Triumph of the Nerds: The Rise of Accidental Empires”), 1996

Niniejszy film dokumentalny, na podstawie książki jego narratora, Roberta X. Cringelya, przenosi nas za kulisy powstania komputerów osobistych; od zagraconych garaży pasjonatów elektroniki w Kalifornii, po luksusowe biurowce megakorporacji (Ciekawa jest prorocza wizja świata „post-pecetowego” wysnuta przez Larrego Ellisona, prezesa Oracle).

Fakty przedstawione są (obecnie) raczej znane i film ewidentnie ma swoje lata, jednak jest świetną kapsułą czasu lat 90-tych: eksplozji przemysłu IT, globalizacji, Internetu, dobrej koniunktury i beztroski, tuż przed parsknięciem bański internetowej, 11 Września, G.W.Bushem, wojną w Iraku i Wielką Depresją…

Weekend z Quick Basic 64

qb64Dawno temu, w latach 80-tych zeszłego wieku firma Microsoft, obok MS-DOSa i raczkującego Windowsa, sprzedawała kompilatory języka BASIC dla wczesnych „pecetów” pod nazwą GW-BASIC a następnie QuickBasic. Był on stosunkowo popularny, zarówno do celów edukacyjnych i profesjonalnych, aż zastąpiony został przez Visual BASIC (który sam został wyparty przez min. makra MS Office i BASIC dla .NET), po czym już pokrył się kurzem zapomnienia, wykorzystywany już jedynie przez zagorzałych entuzjastów… 8)  Czytaj dalej

Now Playing: NASA: Symfonia planetarna Układu Słonecznego

W Kosmosie dźwięk się nie rozchodzi – to rzecz oczywista. 😀 Jednak przestrzeń wypełniona jest promieniowaniem elektromagnetycznym o różnej długości fal – tym światłem widzialnym i falami radiowymi. Wśród planet Układu Słonecznego powszechna jest emisja fal radiowych w zakresie częstotliwości akustycznych (20Hz – 20kHz, czy b. długich, według nomenklatury Międzynarodowej Unii Telekomunikacyjnej są to zakresy SLF, ULF i VLF), które to są wynikiem min. oddziaływania „wiatru słonecznego” (plazmy) z magnetosferą planet. Przy pomocy odbiornika radiowego można je zamienić na fale akustyczne, co w efekcie brzmi po prostu niesamowicie… Poniższe nagrania, sporządzone przez sondę Voyager 2 w czasie jej przelotu odpowiednio przy Jowiszu i Neptunie. Z czasem wydano nawet płytę z nagraniami tych sygnałów wokół innych planet naszego układu. Miłego słuchania! 😀


Czytaj dalej

Douglas Engelbart nie żyje.

Wczoraj zmarł Douglas Engelbart (ur. 30.01.1925), amerykański informatyk, wynalazca myszki komputerowej, jeden z pionierów Internetu i graficznego interfejsu użytkownika. Już w 1968 roku zaprezentował publicznie eksperymentalny system komputerowy ukazujący przedsmak ówczesnej przyszłości: edytory tekstu, wspolną prace kilku osób poprzez sieć i graficzną prezentacje danych komputerowych:

[*]

Nowy Rok z dokumentem: Adam Curtis i jego krytyka współczesnego społeczeństwa.

Adam_curtis

Święta, święta i po świętach… 😛   na święta  – wiadomo, filmy w TV, najczęściej powtórki „Kevina samego w domu” puszczane do zemdlenia, durne telenowele, nudne jak flaki z olejem koncerty gwiazdeczek estradki i tym podobne dyrdymały. Zamiast tego postanowiłem nieco dłuższy okres czasu wolnego poświęcić na intelektualną ucztę, jaką były filmy dokumentalne BBC w reżyserii Adama Curtisa (za zdjęciu po prawej. Żródło: Wikimedia). 🙂

Curtis jest brytyjskim twórcą filmów dokumentalnych, o bardzo unikalnym awangardowym stylu, które w swojej tematyce wahają się między historią nauki i techniki, polityką i socjologią, filozofią i etyką będąc przede wszystkim wielowątkową krytyką współczesnego społeczeństwa. Wnioski wynikające z jego filmów nigdy nie są proste i zawsze zmuszają do myślenia, prowokując zarówno zwolenników prawicy jak i lewicy.  😈 Czytaj dalej

Czterdzieści lat mikroprocesora

Był mały, niepozorny i zamknięty w ceramicznej obudowie ze złoconymi stykami. Zadebiutował na rynku podzespołów elektronicznych 40 lat temu, 15 Listopada 1971 roku, i mimo swej niepozorności odegrał przełomową rolę w historii naszej cywilizacji naukowo-technicznej, porównywalną z programem Apollo. Nosił oznaczenie 4004 i był produkowany przez firmę Intel, jako "serce" prototypowego japońskiego kalkulatora. Mowa oczywiście o pierwszym komercyjnie dostępnym mikroprocesorze, opracowanym przez naturalizowanego w USA włoskiego inżyniera-elektronika Federico Faggina, od którego to zaczęło się mikroprocesorowy szał, któremu zawdzięczamy narodziny współczesnej cywilizacji informatycznej. 

Pierwsze zastosowania były raczej skromne, i ograniczały się do wspomnianych na początku kalkulatorów firmy Busicom oraz terminali dla dużych komputerów, ale już w latach siedemdziesiątych pojawiły się pierwsze prymitywne mikrokomputery, takie jak Altair 8800 i Scelbi, czy bardziej wyrafinowane maszyny Commodore PET i Apple I, a w następnej dekadzie ruszyła niepowstrzymana lawina komputerowej rewolucji, której krokami następnymi milowymi były komputery ZX Spectrum (procesor Zilog Z80, również "dziecko" Faggina), Commodore 64 (MOS Technology 6502), Apple Macintosh i Commodore Amiga (procesory Motorola 68000) i IBM PC (Intel 8086). I tak, krok po kroku, doszliśmy do współczesności, w której telefony komórkowe mogą poszczycić się wielordzeniowymi procesorami o możliwościach niewyobrażalnych 20 lat temu nawet dla ówczesnych superkomputerów. 

Schemat architektury procesora 4004. (Źródło: Wikipedia)
Należy pamiętać o tym, że procesor – obok niezbędnych rejestrów, układów kontrolnych, liczników, wewnętrznej szyny itp. składa zasadniczo się z dwóch elementów: jednostki arytmetycznej (ALU), dokonującej operacji logicznych i podstawowych działań matematycznych na liczbach (na schemacie oznaczona jest symbolem przypominającym literę "V") i jednostki interpretującej rozkazy języka maszynowego. Rewolucyjność idei mikroprocesora 4004 polegała na tym że w jednym układzie znalazły się te oba układy; wcześniej musiały być zainstalowane w komputerze osobno (np. ALU w latach 60-tych XX występowało w postaci układu scalonego 74181), co skutecznie uniemożliwiało miniaturyzacje sprzętu.

4004 był, jak przystało na pionierską konstrukcje, skromny. Miał zaledwie 4 bitową szynę danych (i na takich liczbach operował) i działał na zegarze 740 kHz, przyjmując ośmio i szesnastobitowe polecania języka maszynowego, operując na dwunastobitowej przestrzeni adresowej. Do kompletu Intel produkował min. układy 4001 (pamięć ROM), 4002 (RAM) i 4003 (rejestr przesuwny, do obsługi sygnałów wejścia/wyjścia), które razem z 4004 stanowiły kompletny system komputerowy na jednej płytce drukowanej, zwany MCS-4

Mikroprocesory 4004 nie są już produkowane od 1981 roku, tak więc ciekawscy maniacy asemblera mogą najwyżej pobawić się emulatorami 4004 dostępnymi min. na tej stronie. Pozostali mogą podziwiać podziwiać zrekonstruowane maski dla struktur krzemowych i schematy na stronie 4004.com, pamiętając przy tym o tym, że pierwsze wielkie kroki dla ludzkości są zawsze niepozorne…

P.S. Przypominam na koniec, że mówimy tu o pierwszym komercyjnym mikroprocesorze; rok wcześniej od 4004 wprowadzono bardzo zaawansowany układ scalony dla amerykańskiego myśliwca F-14, co ujawniono dopiero w 1998 roku…

Fot. na górze: Konstantin Lanzet, na licencji GNU

Uczmy nasze dzieci programowania! – c.d.

Nieco ponad rok temu napisałem, w kontekście nauczania informatyki w szkołach, że szkoła "powinna uczyć podstaw zaplecza teoretycznego współczesnej informatyki, gdyż obsługi programów użytkowych można nauczyć się chociażby z instrukcji obsługi. Dzieciaki opuszczając gimnazjum w XXI wieku powinny mieć świadomość, że cała "magia" komputerów polega na tym, że po prostu wykonują one po kolei zadane polecenia, bez ustanku licząc. Taką wiedzę może im dać tylko nauka programowania.".

Ostatnio znalazłem kolejny argument na rzecz nauki programowania w szkole, w postaci wykład Conrada Wolframa na TED Talk w Oxfordzie, poświęcony nauczaniu matematyki w szkole, jako przedmiotu wyjątkowo istotnego dla rozwoju naszej cywilizacji. Pan Wolfram twierdzi, że zamiast tępego uczenia dzieci liczenia, powinny być one uczone matematyki przy pomocy komputerów, a dokładnie ich programowania, z naciskiem na logiczne myślenie i formułowanie problemów:

Dennis Ritchie – c.d.

Taką fajną laurkę znalazłem w temacie wynalazku Ritchiego – piosenka „Write in C”, na melodie „Let it Be” Beatelsów: 

A tu stary filmik z 1982 roku z udziałem pana Richiego, opowiadający o podstawowej budowie i założeniach Unixa:

A co potrafił ówczesny Unix? Przy pomocy specjalnych tzw. głupich terminali można było pracować nad kilkoma rzeczami na raz na jednej maszynie w graficznym środowisku w stylu Macintosha. Już 30 lat temu!

← Starsze wpisy