Tag Archives: informatyka

„Tryumf Nerdów” („The Triumph of the Nerds: The Rise of Accidental Empires”), 1996

Niniejszy film dokumentalny, na podstawie książki jego narratora, Roberta X. Cringelya, przenosi nas za kulisy powstania komputerów osobistych; od zagraconych garaży pasjonatów elektroniki w Kalifornii, po luksusowe biurowce megakorporacji (Ciekawa jest prorocza wizja świata „post-pecetowego” wysnuta przez Larrego Ellisona, prezesa Oracle).

Fakty przedstawione są (obecnie) raczej znane i film ewidentnie ma swoje lata, jednak jest świetną kapsułą czasu lat 90-tych: eksplozji przemysłu IT, globalizacji, Internetu, dobrej koniunktury i beztroski, tuż przed parsknięciem bański internetowej, 11 Września, G.W.Bushem, wojną w Iraku i Wielką Depresją…

Weekend z Quick Basic 64

qb64Dawno temu, w latach 80-tych zeszłego wieku firma Microsoft, obok MS-DOSa i raczkującego Windowsa, sprzedawała kompilatory języka BASIC dla wczesnych „pecetów” pod nazwą GW-BASIC a następnie QuickBasic. Był on stosunkowo popularny, zarówno do celów edukacyjnych i profesjonalnych, aż zastąpiony został przez Visual BASIC (który sam został wyparty przez min. makra MS Office i BASIC dla .NET), po czym już pokrył się kurzem zapomnienia, wykorzystywany już jedynie przez zagorzałych entuzjastów… 8)  Continue reading

Douglas Engelbart nie żyje.

Wczoraj zmarł Douglas Engelbart (ur. 30.01.1925), amerykański informatyk, wynalazca myszki komputerowej, jeden z pionierów Internetu i graficznego interfejsu użytkownika. Już w 1968 roku zaprezentował publicznie eksperymentalny system komputerowy ukazujący przedsmak ówczesnej przyszłości: edytory tekstu, wspolną prace kilku osób poprzez sieć i graficzną prezentacje danych komputerowych:

[*]

Relacja z „Intel Outside Party I”, czyli srebrne czasy komputerów typu Amiga.

Przed obejrzeniem niniejszego materiału zalecam przeczytanie mojej notki „25 lat komputerów Amiga”. Film został nagrany na zlocie członków tzw. sceny, czyli „ludzi wykorzystujących komputer do innych celów niż gry i praca i uważających się za twórców”. W praktyce była to subkultura miłośników komputerów, dla których samo obcowanie z tą technologią było jej głównym kryterium, i której członkowie to za szczyt sztuki uważali obrazki i animacje zrobione na komputerze, przez co sam fakt ich zrobienia na tej maszynie był według nich dowodem na ich artyzm. W sumie jest to kronika czasów, w których informatyka miała jeszcze posmak czegoś niezwykłego i niedostępnego dla przeciętnego człowieka, w przeciwieństwie do naszej dzisiejszej postcyfrowej epoki

PS. Jako że materiał jest długi, pełen niezrozumiałego slangu itp. to około 35 minuty Robert „Mr.Root” Korzeniewski wyjaśnia przystępnie o co w tym chodzi. :P

Czterdzieści lat mikroprocesora

Był mały, niepozorny i zamknięty w ceramicznej obudowie ze złoconymi stykami. Zadebiutował na rynku podzespołów elektronicznych 40 lat temu, 15 Listopada 1971 roku, i mimo swej niepozorności odegrał przełomową rolę w historii naszej cywilizacji naukowo-technicznej, porównywalną z programem Apollo. Nosił oznaczenie 4004 i był produkowany przez firmę Intel, jako "serce" prototypowego japońskiego kalkulatora. Mowa oczywiście o pierwszym komercyjnie dostępnym mikroprocesorze, opracowanym przez naturalizowanego w USA włoskiego inżyniera-elektronika Federico Faggina, od którego to zaczęło się mikroprocesorowy szał, któremu zawdzięczamy narodziny współczesnej cywilizacji informatycznej. 

Pierwsze zastosowania były raczej skromne, i ograniczały się do wspomnianych na początku kalkulatorów firmy Busicom oraz terminali dla dużych komputerów, ale już w latach siedemdziesiątych pojawiły się pierwsze prymitywne mikrokomputery, takie jak Altair 8800 i Scelbi, czy bardziej wyrafinowane maszyny Commodore PET i Apple I, a w następnej dekadzie ruszyła niepowstrzymana lawina komputerowej rewolucji, której krokami następnymi milowymi były komputery ZX Spectrum (procesor Zilog Z80, również "dziecko" Faggina), Commodore 64 (MOS Technology 6502), Apple Macintosh i Commodore Amiga (procesory Motorola 68000) i IBM PC (Intel 8086). I tak, krok po kroku, doszliśmy do współczesności, w której telefony komórkowe mogą poszczycić się wielordzeniowymi procesorami o możliwościach niewyobrażalnych 20 lat temu nawet dla ówczesnych superkomputerów. 

Schemat architektury procesora 4004. (Źródło: Wikipedia)
Należy pamiętać o tym, że procesor – obok niezbędnych rejestrów, układów kontrolnych, liczników, wewnętrznej szyny itp. składa zasadniczo się z dwóch elementów: jednostki arytmetycznej (ALU), dokonującej operacji logicznych i podstawowych działań matematycznych na liczbach (na schemacie oznaczona jest symbolem przypominającym literę "V") i jednostki interpretującej rozkazy języka maszynowego. Rewolucyjność idei mikroprocesora 4004 polegała na tym że w jednym układzie znalazły się te oba układy; wcześniej musiały być zainstalowane w komputerze osobno (np. ALU w latach 60-tych XX występowało w postaci układu scalonego 74181), co skutecznie uniemożliwiało miniaturyzacje sprzętu.

4004 był, jak przystało na pionierską konstrukcje, skromny. Miał zaledwie 4 bitową szynę danych (i na takich liczbach operował) i działał na zegarze 740 kHz, przyjmując ośmio i szesnastobitowe polecania języka maszynowego, operując na dwunastobitowej przestrzeni adresowej. Do kompletu Intel produkował min. układy 4001 (pamięć ROM), 4002 (RAM) i 4003 (rejestr przesuwny, do obsługi sygnałów wejścia/wyjścia), które razem z 4004 stanowiły kompletny system komputerowy na jednej płytce drukowanej, zwany MCS-4

Mikroprocesory 4004 nie są już produkowane od 1981 roku, tak więc ciekawscy maniacy asemblera mogą najwyżej pobawić się emulatorami 4004 dostępnymi min. na tej stronie. Pozostali mogą podziwiać podziwiać zrekonstruowane maski dla struktur krzemowych i schematy na stronie 4004.com, pamiętając przy tym o tym, że pierwsze wielkie kroki dla ludzkości są zawsze niepozorne…

P.S. Przypominam na koniec, że mówimy tu o pierwszym komercyjnym mikroprocesorze; rok wcześniej od 4004 wprowadzono bardzo zaawansowany układ scalony dla amerykańskiego myśliwca F-14, co ujawniono dopiero w 1998 roku…

Fot. na górze: Konstantin Lanzet, na licencji GNU

Uczmy nasze dzieci programowania! – c.d.

Nieco ponad rok temu napisałem, w kontekście nauczania informatyki w szkołach, że szkoła "powinna uczyć podstaw zaplecza teoretycznego współczesnej informatyki, gdyż obsługi programów użytkowych można nauczyć się chociażby z instrukcji obsługi. Dzieciaki opuszczając gimnazjum w XXI wieku powinny mieć świadomość, że cała "magia" komputerów polega na tym, że po prostu wykonują one po kolei zadane polecenia, bez ustanku licząc. Taką wiedzę może im dać tylko nauka programowania.".

Ostatnio znalazłem kolejny argument na rzecz nauki programowania w szkole, w postaci wykład Conrada Wolframa na TED Talk w Oxfordzie, poświęcony nauczaniu matematyki w szkole, jako przedmiotu wyjątkowo istotnego dla rozwoju naszej cywilizacji. Pan Wolfram twierdzi, że zamiast tępego uczenia dzieci liczenia, powinny być one uczone matematyki przy pomocy komputerów, a dokładnie ich programowania, z naciskiem na logiczne myślenie i formułowanie problemów:

Dennis Ritchie – c.d.

Taką fajną laurkę znalazłem w temacie wynalazku Ritchiego – piosenka „Write in C”, na melodie „Let it Be” Beatelsów: 

A tu stary filmik z 1982 roku z udziałem pana Richiego, opowiadający o podstawowej budowie i założeniach Unixa:

A co potrafił ówczesny Unix? Przy pomocy specjalnych tzw. głupich terminali można było pracować nad kilkoma rzeczami na raz na jednej maszynie w graficznym środowisku w stylu Macintosha. Już 30 lat temu!

Dennis Ritchie nie żyje.

Jak donosi „Computerworld”, 8 października zmarł w wieku 70 lat (ur. 9 Września 1941) Dennis MacAlistair Ritchie, wybitny amerykański informatyk, laureat Nagrody Turinga i National Medal of Technology, twórca języka programowania C i systemów operacyjnych Multics i Unix (z którego wywodzą się min. systemy Linux, Android i Mac OS X) – nieocenionych fundamentów współczesnej informatyki.

Po lewej: zdjęcie Dennisa Ritchiego na ceremonii wręczenia National Medal of Technology w 1998 roku, po prawej: rekonstrukcja ekranu systemu Unix na przełomie lat osiemdziesiątych i dziewięćdziesiątych XX wieku (For. Liberal Classic, na licencji GNU).

Postanowiłem uczcić pamięć Ritchiego następującym prostym programikiem w języku C:

#include <stdio.h>
#include <stdlib.h>

int main(void) {

	printf("+-----------------------+\n");
	printf("|     Dennis Ritchie    |\n");
	printf("|09.09.1941 - 08.10.2011|\n");
	printf("+-----------------------+\n");

	return EXIT_SUCCESS;
}