Miarą jakości elit politycznych danego kraju jest dbałość o dobro publiczne ponad podziałami, z czego w ramach tego dobra powszechnego znajduje się troska o edukację i rozwój nauki. Oprócz przyznawania dotacji, grantów, stałego finansowania badań naukowych i fundowania ośrodków badawczych, w skład tych działań wchodzą także proste gesty propagujące naukę u szerokich rzesz społeczeństwa.
Jak donosi "The Washington Post", prezydent Barrack Obama wystąpi w popularnym programie "Pogromcy Mitów", czym ma pokazać "swoje oddanie w inspirowaniu młodych ludzi do nauki matematyki i przedmiotów ścisłych". W odcinku, który ma być nadany 8 Grydnia b.r. niestrudzeni spece od efektów specjalnych mają zamiar po raz trzeci przetestować rzekome zwierciadło Archimedesa, użyte rzekomo do obrony Syrakuz przed Rzymianami.
Porównajmy to to z tym co się dzieje w naszym kraju, kraju w którym dyskusja publiczna stoczyła się do poziomu Trzeciego Świata, wydatki na naukę są symboliczne, a system edukacji na tyle dysfunkcyjny, że produkuje bezrobotnych humanistów, w sytuacji gdy brakuje inżynierów…
53 lata temu, 4 Października 1957 roku, Związek Radziecki tymczasowo wyprzedził Amerykanów w wyścigu kosmicznym umieszczając na orbicie pierwszego sztucznego satelitę Ziemi, słynnego Sputnika. Ten przełomowy moment zmobilizował Amerykanów do rozpoczęcia własnego programu kosmicznego i powołania do życia NASA. Powstało nawet określenie "szok Sputnika", które opisywało atmosferę tamtego okresu w USA, owocującą mobilizacją zasobów kraju i zwiększenia wydatków na naukę oraz badania i rozwój.
Trzeba pamiętać że pierwsze satelity i astronauci byli wynoszeni w Kosmos przy pomocy rakiet balistycznych – stąd wyścig kosmiczny był przełożeniem możliwości państwa w dziedzinie przenoszenia broni atomowej…
Kroniki filmowe z tamtego okresu; odpowiednio amerykańska i radziecka:
Dawno temu, w epoce komputerów 8-mio bitowych, każdy użytkownik tych maszyn musiał zapoznać się z językiem BASIC, nawet po to, aby załadować grę czy program użytkowy do pamięci.
Zaowocowało to lepszą znajomością możliwości sprzętu i oferowanych przez niego możliwości, oraz sprzyjało jego bardziej twórczemu wykorzystywaniu.
W dzisiejszych czasach, gdzie obsługa komputera jest banalnie prosta i intuicyjna, widać pewien regres, gdyż użytkownicy nie widzą potrzeby pogłębiania swej wiedzy i umiejętności.
Jest to szczególnie frustrujące w przypadku dzieci i młodzieży, które to marnują czas na bierne przeglądanie internetu i granie, zaprzepaszczając możliwości jakie daje nowoczesna technologia w dziedzinie edukacji i rozwoju intelektualnego.
Wbrew obiegowej opinii, obecność komputerów w domach NIE poprawia wyników w nauce, gdyż są one często wykorzystywane do rozrywki, w szczególności gier i Internetu, odrywając dzieci od nauki. Dowodem na to niech będą badania poczynione w Rumunii przez profesora Ofera Malamuda, według których obecność komputerów podnosi co prawda znajomość obsługi tych urządzeń, ale kosztem wyników w szkole.
Postanowiłem sprawdzić, czy w Polsce istnieje obowiązek nauczania programowania w szkole. Poguglałem za publikacjami poświęconymi podstawie programowej nauczania informatyki w gimnazjum, i uderzyło mnie to, że poza jednym napomknięciem o języku LOGO, nie ma ani słowa o wymogu nauczaniu programowania w konkretnym języku wysokiego poziomu na lekcjach informatyki w gimnazjum. Jest nauczanie podstawy algorytmów ale to wszystko. Większość wymagań programowych dotyczy uczenia obsługi systemu Windows, edytora tekstu, arkusza kalkulacyjnego, programów do grafiki i Internetu itp. – można to zobaczyć w założeniach reformy programowej Ministerstwa Edukacji Narodowej. W liceach programowanie ma status "materiałów nadobowiązkowych", co jest moim zdaniem nieporozumieniem.
Mam duże wątpliwości co do takiego postępowania, gdyż większość tych rzeczy dzieciaki mogą się dowiedzieć od rówieśników, rodziców czy prasy komputerowej. Twórcy reformy programowej w MENie zapominają, że nasycenie technologią informatyczną samo z siebie wymusza elementarną wiedzę na ten temat wśród najmłodszych. Mam na myśli wiedzę na poziomie powierzchownym, charakterystycznym dla szarego użytkownika.
Dlatego szkoła powinna iść krok dalej, i powinna uczyć podstaw zaplecza teoretycznego współczesnej informatyki, gdyż obsługi programów użytkowych można nauczyć się chociażby z instrukcji obsługi. Dzieciaki opuszczając gimnazjum w XXI wieku powinny mieć świadomość, że cała "magia" komputerów polega na tym, że po prostu wykonują one po kolei zadane polecenia, bez ustanku licząc. Taką wiedzę może im dać tylko nauka programowania.
I nie jest to wcale "sztuka dla sztuki". Trudno wyobrazić sobie, aby kierowca samochodu nie wiedział jak działa silnik czterosuwowy, mechanik nie miał pojęcia o podstawowych prawach fizyki, a lekarz nie znał się na biologii. Podstawowa wiedza z dziedziny programowania sprzyja bardziej dogłębnemu poznaniu tajników funkcjonowania systemów operacyjnych i oprogramowania, co może zaprofitować wyższą kulturą techniczną, rozumianą jako bardziej twórcze wykorzystywanie możliwości jakie daje technologia. Pierwszy kontakt z komputerem w roli programisty może wzbudzić zainteresowanie informatyką wśród uczniów, co ma potencjalnie duży wpływ na wybór drogi edukacji i kształcenia zawodowego.
Jaki język wybrać do szkolnych pracowni? Moim zdaniem oczywistym wyborem jest język BASIC, pomyślany od początku swego istnienia jako narzędzie edukacyjne. Dlaczego nie słynny Pascal? Pascal jest już zbyt skomplikowany jak na pierwszy kontakt z językiem programowania, gdyż rozróżnia on typy zmiennych i posiada złożone typy danych (w najnowszych wersjach posiada nawet wskaźniki i obiekty).
Jeśli chodzi o BASICa, to do wyboru mamy sporo mutacji tego języka, min. VisualBASIC Microsoftu, czy FreeBASIC, ale na szczególną uwagę zasługuje darmowy, na otwartym źródle, język BASIC-256 (dawniej KidsBASIC), pomyślany jako język dla dzieci i młodzieży szkolnej.
Okno BASIC-256 z programem do rysowania fraktali.
Jest on dostępny w wersji na Linuxa i Windows i posiada zintegrowane środowisko programistyczne, umożliwiające łatwą edycję kodu, podgląd grafiki, podgląd zmiennych i wyjście tekstowe. Sama aplikacja nie jest skomplikowana, pewną niedogodnością może być brak polskiego tłumaczenia interfejsu i dokumentacji. Nauka programowania z użyciem tego narzędzia powinna polegać na tworzeniu prostych programów, które pozwalały by na ogarnięcie przez uczniów zmiennych, instrukcji warunkowych, iteracji itp., w celu np. rozwiązywania zadań z matematyki (np. rozwiązywanie równań z dwiema niewiadomymi), czy zabawy w tworzenie grafiki (proszę mi wierzyć, dzieci to lubią).
Reasumując: nauczanie programowania powinno być obowiązkowe w gimnazjum i liceum. Do tego celu idealnie nadaje się język BASIC, a w szczególności BASIC-256. Nie rozumiem argumentu w stylu "to jest za trudne dla dzieciaków", gdyż jest to po prostu nieprawda. Gdybyśmy kierowali się podejściem, że wiele rzeczy jest za trudnych dla dzieci (bo muszą się ich nauczyć, w toku edukacji, często najeżonej niepowodzeniami) to najlepiej to by było w ogóle ich niczego nie uczyć.
W ten weekend upłynęła nam ciekawa rocznica ze świata informatyki: 25 lat temu, na uroczystej gali w nowojorskim Lincoln Centre, z udziałem m.in. Andiego Warhola, firma Commodore zaprezentowała swój nowy produkt: komputer osobisty Amiga 1000.
Dla przypomnienia: Amiga (hiszp. „przyjaciółka”) była handlową nazwą serii komputerów 16- i 32-bitowych produkowanych w latach 1985-1994 przez firmę Commodore Business Machines, opracowanych przez zespół informatyków pod kierownictwem Jaya Minera. Amigi były postrzegane, podobnie jak ich rywale, komputery firmy Atari, jako „trzecia droga” pomiędzy Macintoshami Apple’a i pecetami IBM. Historia tej marki była pasmem spektakularnych sukcesów które skończyły się wraz z dekadą lat 90-tych XX wieku…
Pierwsze demo na Amidze: skacząca piłka (Boing Ball). Warto zwrócić uwagę na stereofoniczny dźwięk i symulacje odbić zgodną z prawami fizyki.
Kilka reklam z lat 80-tych. Prawdziwym kuriozum na skalę światową było to, że firma Commodore potem w ogóle (Sic!) nie reklamowała swoich produktów na taką skalę:
W okresie swej świetności Amigi wyróżniały się na tle innych konstrukcji bardzo dobrymi możliwościami graficznymi i muzycznymi – o czym powiem za chwilę – osiągniętymi dzięki unikalnemu zestawowi dedykowanych układów scalonych przetwarzających dźwięk, grafikę i zarządzających pamięcią.
Gorąco polecam następujący materiał filmowy, w którym pokazano możliwości Amigi, oraz ówczesne oprogramowanie (kilka gier, oprogramowanie biurowe, „Deluxe Paint III” i program do czołówek wideo):
Pierwszy model z całej rodziny, wyposażony w mikroprocesor Motorola 68000 taktowany zegarem 7 Mhz, i 256kB pamięci RAM. Nośnikiem danych była stacja dyskietek o pojemności 880kB. System operacyjny był ładowany z specjalnej dyskietki startowej, który to w późniejszych modelach został w całości zapisany w kościach ROM, aby uniknąć problemów w przypadku jej zniszczenia lub zgubienia.
Amiga 2000 i Amiga 500
Nowy model Amigi z 1987 roku, oznaczony numerem 2000 posiadał, obok standardowych 512 kB RAM, liczne sloty rozszerzeń, umożliwiające podłączanie min. kart graficznych, kontrolerów twardych dysków, rozszerzeń pamięci itp.
Amiga 500 była jego zubożonym wariantem, bez slotów, z kompaktową obudową zawierającą w sobie komputer i klawiaturę, tak jak „kultowy” ośmiobitowiec Commodore 64. Amiga 500 była bodaj najpopularniejszym modelem ze wszystkich Amig i wielkim hitem, który przełożył się na promocje tej platformy. „Pięćsetka” potem doczekała się ulepszonego wariantu, Amigi 500+, wyposażonej w 1MB RAMu i nowszy system operacyjny w wersji 2.04.
Amiga 3000
Pierwszy 32-bitowy model Amigi, wyposażony w procesor Motorola 68030 i standardowo 2MB pamięci. Tak jak Amiga 2000 (która w międzyczasie doczekała się unowocześnionego kuzyna, model 2500) posiadał sloty rozszerzeń, a także kontroler twardych dysków SCSI i gniazdo dla standardowego monitora do komputera IBM PC (standardowo Amiga miała sygnał wizyjny kompatybilny z telewizyjnym, więc do monitora komputerowego nie dało się jej bezpośrednio podłączyć, za wyjątkiem późniejszych modeli).
Ten model uchodził za najbardziej udany i jednocześnie najdroższy. Commodore wypuściło też wariant „trzytysiączki” pracujący pod systemem UNIX, przeznaczony do pracy jako stacja robocza, względnie serwer w sieciach Novell.
Prezentacja możliwości Amigi 3000 w studio programu telewizyjnego „Computer Chronicles” amerykańskiej telewizji PBS:
Unikalną cechą tej rodziny komputerów był system operacyjny, w 100% „okienkowy”, chwalony za przyjazność dla użytkownika, posiadający wiele bardzo cennych rozwiązań inspirowanych unixem (min. wielozadaniowość). W porównaniu z Windows 3.1 (który był ledwie nakładką na MS-DOSa) czy ówczesnym Mac OSem był to wielki krok do przodu. Możliwość uruchamiania współbieżnego kilku programów na raz jest dzisiaj rzeczą trywialną, ale wtedy było czymś niespotykanym wśród komputerów osobistych, tak, że np. NASA aż do lat dwutysięcznych wykorzystywała rozbudowane Amigi do odbioru danych telemetrycznych.
Amiga miała nawet możliwość uruchomienia jednocześnie kilku programów na różnych ekranach, w różnych rozdzielczościach i paletach barw (ale nie na dwóch osobnych monitorach, chyba że mieliśmy dodatkową kartę graficzną). Jądrem systemu był mikrokernel, którym były dwie rezydentne biblioteki exec.library i dos.library. Te biblioteki, podobnie jak sterowniki do standardowego sprzętu oraz biblioteki odpowiedzialne za obsługę grafiki i dźwięku, były zapisane w kościach ROM noszących nazwę „Kickstart”. Reszta systemu, czyli komendy shella, pozostałe sterowniki, programy użytkowe itp. były umieszczane na dyskietkach lub twardych dyskach i nosiły nazwę „Workbench”.
Workbench w wersji 1.3 (Amiga 500/2000).
Grafika była najmocniejszą stroną Amigi, w przeciwieństwie do 8-bitowego dźwięku, który co prawda bił na głowę „piszczałki” montowane w ośmiobitowcach, ale już nie mógł równać się z pecetowskim 16-bitowym Sound Blasterem. Modele z pierwszym chipsetem OCS i nieznacznie unowocześnionym ECS potrafiły wyświetlić grafikę w rozdzielczości 320×240 pikseli (pomijając tzw. overscan) z 32 kolorami. Ilość kolorów można było zwiększyć poprzez specjalne tryby: EHB (64 kolory, powstałe z zduplikowania i przyciemnienia palety 32 kolorów) i HAM (4096 kolorów, za cenę artefaktów na obrazie tzw. rampy). Maksymalna rozdzielczość wynosiła 640×480 pikseli w 16 kolorach (lub 1024×768 w chipsecie ECS, również w 16 barwach). Sama liczba kolorów i rozdzielczości to nie wszystko, cała praca związana z obsługą palety barw i przetwarzania grafiki była wykonywana przez procesory graficzne Blitter i Copper odciążające procesor główny.
Przykładowy obrazek w trybie HAM (4096 kolorów), prawdopodobnie w programie „Brillance” „Photon Paint”.
Standardem (porównywalnym do pozycji Photoshopa na współczesnych maszynach) w tworzeniu grafiki był program Deluxe Paint firmy „Electronic Arts” (obecnie znanej z produkcji gier pod marką „EA Games”), specjalnie stworzony do obsługi chipsetu tego typu komputera i jego trybów graficznych.
Deluxe Paint V, ostatnia wersja programu, z grafiką w 256 kolorach.
Amiga była komputerem bardzo popularnym w Europie (szczególnie w Niemczech i Polsce), a to z dwóch względów. Po pierwsze w USA panowało przeświadczenie o tym, że komputer powinien być do pracy, a do gier konsola, a Amiga była modelowym przykładem „komputera domowego”, tj. takiego, który może zarówno służyć do zabawy, jak i pracy, więc miała powodzenie w Europie, gdzie panowało zapotrzebowanie na takie maszyny. Sprzyjał też temu fakt kompaktowej obudowy Amigi 500 oraz możliwość wykorzystania telewizora w charakterze monitora. A po drugie Commodore nie potrafiło odpowiednio zareklamować swego sprzętu na amerykańskim rynku…
Lata 1991-1994
W tym czasie wprowadzono nowy chipset AGA, umożliwiający uzyskanie 256 kolorów lub ćwierć miliona (tryb HAM8) w dowolnej rozdzielczości oraz podłączenie monitora Multisync SVGA. Niestety, wydajność chipsetu nie była imponująco większa od OCS/ECSu, a Commodore planowało zresztą wprowadzenie w pełni 24-bitowych kości AAA w prototypowym modelu Amiga 5000, tak więc AGA był tylko pośrednim krokiem.
Workbench 3.0 (Amiga 1200/4000)
Ukazały się dwa modele, Amiga 1200 i Amiga 4000, wykorzystywały ten zestaw chipów, będąc komputerami w pełni 32-bitowymi (odpowiednio: procesory 68EC020 i 68040), z wbudowanymi kontrolerami twardych dysków. System operacyjny Workbench 3.0 posiadał wiele nowatorskich rozwiązań: modularną konstrukcje bibliotek budujących interfejs graficzny (programiści mogli tworzyć własne klasy budujące poszczególne elementy), odpowiedniki współczesnych kodeków (tzw. Datatypes) i odpowiednik Panelu Sterowania (tzw. „preferencje”).
Amiga 1200 była udanym następcą Amigi 500, z kolei Amiga 4000 była modelem przeznaczonym do pracy profesjonalnej, tak jak modele 2000 i 3000.
Amiga 4000.
A’propos zastosowań profesjonalnych: w tym czasie Amigi były szeroko wykorzystywane do obróbki filmów wideo, gdyż sygnał wizyjny był w pełni zgodny z normami sygnału wideo, dzięki czemu można by było bardzo prosto (gdyż układ wizyjny dostarczał informacje o przeźroczystości do zewnętrznego urządzenia) nakładać obraz z komputera na obraz wideo, przy pomocy urządzeń zwanych genlockami. W USA popularność Amig w studiach wideo była tym większa, że na tamtejszym rynku obecne były karty wideo VideoToaster, wraz z znakomitym programem do grafiki 3D LightWave (rozwijanym po dzień dzisiejszy przez firmę NewTek).
Ten program, w zestawie z kartą VideoToaster, był wówczas standardem Hollywood i był wykorzystywany do produkcji min. „Star Trek VI”, „RoboCop 2”, „Parku Jurajskiego” Spielberga czy do realizacji serialu „SeaQuest DSV” w 1994 roku. W prasie komputerowej czytałem artykuły, że Amigę kupowało się w tym okresie właśnie dla bardzo dobrego oprogramowania do grafiki 3D, oprócz wspomnianego LightWavea prym wiodły programy takie jak Real 3D, Calligari 3D i Cinema 4D.
Na Amidze 4000 swoją przygodę z grafiką i animacją zaczynał pan Tomasz Bagiński, światowej sławy animator, autor nominowanej do Oscara „Katedry”. Można od razu zapytać, jak to się stało, że Commodore nie wykorzystywało tak znakomitej okazji do promocji swego produktu, jaką było wykorzystanie ich w studiach filmowych i TV (pełna lista)?
Dokładnie to samo pytanie zadawali sobie wtedy dziennikarze prasy komputerowej i użytkownicy Amig, i odpowiedzi nie znaleźli innej, niż niekompetencja kierownictwa firmy…
W 1991 roku Commodore wypuściło na rynek pierwszy komputer z wbudowanym napędem CD-ROM. Mowa o komputerze CDTV, który komputerem był tylko z zasady działania, gdyż wyglądem zewnętrznym przypominał odtwarzacz płyt kompaktowych, i był pomyślany jako sprzęt RTV. Niestety, była to zbyt wczesna próba wprowadzenia komputerów jako center rozrywki elektronicznej, dodatkowo dało znać o sobie tragicznie marne rozeznanie Commodore w realiach tego rynku. Produkt kompletnie nie chwycił, ukazało się bardzo mało płyt CD-ROM z oprogramowaniem na ten komputer, a i tak często były to programy na Amigę 500 przerzucone na kompakt lub składanki obrazków itp.
Amiga CDTV (proszę zwrócić uwagę na pilot, będący jednocześnie klawiaturą i joypadem).
Inną totalną porażką był model Amiga 600, wprowadzony w tym samym roku. W zasadzie był to komputer o możliwościach Amigi 500+, tylko jeszcze bardziej ograniczony w zakresie rozbudowy. Właśnie ten fakt, podobnie jak mała moc obliczeniowa, były przykładami na stagnację marki i kiepski marketing Commodore.
Amiga 600 – zły krok w złym kierunku ze strony Commodore…
Bardziej udaną próbą wprowadzenia Amigi do w świat multimediów była konsola CD32, bazująca na Amidzę 1200, będąca pierwszą konsolą do gier 32-bitową, z prostym akceleratorem graficznym (kość Akiko). Tym razem szczęście dopisało; ukazało się wiele znakomitych gier w pełni wykorzystujących możliwości płyt kompaktowych, min. „Microcosm”. Commodore planowało wypuścić moduł sprzętowego dekodera filmów MPEG, ale pomysł nie chwycił, po części ze względu na małą popularność płyt VideoCD. Niestety, wkrótce rynek konsol do gier został wywrócony do góry nogami przez Sony PlayStation pierwszej generacji i Amiga CD32 nie miała juz racji bytu, tak jak konkurencyjny Atari Jaguar…
Amiga CD32
Lata 90-te były ciężkim okresem dla platform alternatywnych dla „pecetów”. IBM otworzył standard swoich komputerów, dzięki czemu masowo powstawały niezliczone ich modele i komponenty firm trzecich, dzięki czemu doszło do ustandaryzowania się komputerów osobistych na całym świecie na tą modłę.
Dodatkowo Intel nadrobił wszelkie zaległości względem Motoroli wprowadzając procesory serii Pentium, a producenci kart graficznych prześcignęli parametrami swoich wyrobów dedykowane układy Atari (które wtedy zbankrutowało) i Amig. Nawet Apple miało wówczas poważne problemy, od których odbiło się dopiero w 1998 roku, po powrocie Steva Jobs’a i radykalnej zmianie strategii marketingowej.
Po roku 1994
Upadek firmy Commodore w 1994 roku był ostatecznym ciosem i gwoździem do trumny. Mieliśmy jeszcze wznowienie produkcji Amig 1200 i 4000 w latach 1995-1996 przez firmę Escom, ale to już był koniec. Streszczenie tego wszystkiego co się wtedy działo było by tak samo sensowne jak streszczanie latynoamerykańskiej telenoweli. Właściciele firmy Amiga Technologies zmieniali się jeden po drugim, a liczni hobbyści i firmy trzecie łatali usterki w nie rozwijanym przez producenta sprzęcie i oprogramowaniu poprzez coraz bardziej wymyślne karty rozszerzeń, które coraz bardziej redukowały pierwotny sprzęt do roli zasilacza i kontrolera klawiatury, oraz nakładki programowe.
Pewną mutacją Amigi były wyspecjalizowane stacje do obróbki filmów wideo, Draco i Casablanca, w których to przestarzałe układy AGA zastąpiono kartami graficznymi.
Niby powstały nowe konstrukcje nawiązujące do oryginałów, tak jak AmigaOne, wraz z systemem AmigaOS 4.0, ale wystarczy że wspomnimy że producent tej pierwszej już zbankrutował, sprzedając ledwie 1500 płyt głównych…
Oprócz kolekcjonerskich modeli Amig produkcji Commodore i Escomu oprogramowanie na ten komputer można uruchomić na emulatorze WinUAE i jego unixowych wersjach. Ciekawostką może być Minimig, czyli Amiga zbudowana z programowalnych układów scalonych FPGA, w pełni kompatybilna z pierwowzorem.
***
Nie będę ukrywał, że cała ta historia ma pewien wymiar osobisty dla mnie: Amiga 500 była moim pierwszym komputerem w życiu. Do dziś pamiętam swoje pierwsze programy w AmigaBASICu i wpisywane komendy shella, czy noce spędzone nad grą „Civilization”.
45 lat temu, o godzinie 15:41:49 czasu uniwersalnego wystrzelony listopadzie poprzedniego roku próbnik Mariner 4 rozpoczął manewr przelotu obok planety Mars.
Następnego dnia, krótko po północy, zainstalowana w nim kamera zaczęła robić pierwsze zdjęcia Czerwonej Planety, które w formie cyfrowej zaczęły być przekazane na Ziemię trzy godziny póżniej (sama transmisja danych zajęła przeszło 8 godzin). Obraz Marsa, przekazany przez kamerę o rozdzielczości 200 na 200 pikseli, ukazał planetę o bardzo ciękiej atmosferze, o powierzchni porytej kraterami i pozbawioną oceanów.
I na tym skończyła się cała misja Marinera 4, z którym nawiązano powtórnie łączność dwa lata póżniej, po to tylko aby stwierdzić uszkodzenie próbnika przez mikrometeoryty, i ostatecznie przerwać z nim łączność.
Przez następne lata Mars był odwiedzany przez niezliczoną ilość próbników amerykańskich (następne z serii Marinerów i dwa Vikingi), radzieckich (seria próbników Mars, prześladowana przez liczne usterki), japońskich i europejskich. Mars ma opinię planety, do której to wysyłanie próbników jest obciążone sporym ryzykiem, nawet po udanym lądowaniu, co widać na przykładzie niedawnej awarii próbnika Phoenix.
Te pierwsze próby skomercjalizowania lotów kosmicznych i przełamywania państwowego monopolu na podróże kosmiczne są moim zdaniem bardzo znaczące. Pamiętajmy że burzliwy rozwój informatyki stał się możliwy dlatego, że ludzie pokroju Jobsa i Woźniaka oraz lorda Sinclair’a postanowili zaryzykować i sprzedawać ludziom komputery, co w ich czasach uchodziło za szaleństwo względnie okazję do zmarnowania pieniędzy ("no bo po co komu komputer w domu?").
Wprowadzenie miniaturowych (w porównaniu do wcześniejszego systemu U-Matic Sony czy studyjnych magnetowidów szpulowych) kaset było prawdziwą rewolucją w świecie elektroniki RTV, porównywalną chyba tylko z wprowadzeniem komputerów osobistych "pod strzechy". Oto bowiem idea "kina w domu" uległa urzeczywistnieniu, wraz z uniezależnieniem się odbiorców od dyktatu telewizyjnej ramówki (był nawet proces pomiędzy sieciami telewizyjnymi, a producentami wideo, gdzie ci pierwsi oskarżali tych drugich o szkody poczynione nagrywaniem programów TV na kasety) i repertuaru kin.
Warto pamiętać, że VHS nie był pierwszym standardem wideo; w 1975 roku Sony wypuściło kasety formatu Betamax, przez wiele lat (aż do wprowadzenia S-VHS) będący poważnym konkurentem tego pierwszego, początkowo posiadając nieco lepszą jakość obrazu. Oba te formaty stoczyły zażartą wojnę, w wyniku której bezapelacyjnym zwycięzcą okazał się VHS, głownie dzięki branży pornograficznej, dla której nowy nośnik był wymarzonym sposobem dystrybucji filmów "tylko dla dorosłych" (Sony nie zgadzało się na wykorzystywanie Bety do tego celu). Na marginesie, historia lubi się powtarzać; dokładnie identyczną "wojnę formatów" niedawno stoczyły między sobą BluRay i HD-DVD.
Dziś VHS odszedł już na emeryturę; filmów w tym formacie praktycznie nie ma już w sprzedaży, a do nagrywania programów z telewizji można wykorzystywać min. nagrywarki DVD. Obecnie samo DVD, które było następcą VHSa, czeka zastąpienie przez BluRay. Jednakże w obiegu i kolekcjach wciąż znajduje się wiele kaset VHS, co zachęciło firmę Panasonic do wyprodukowania kombajnu VHS-BluRay.
VHS był prawdziwym fenomenem społecznym w Polsce, gdzie latach 80-tych i 90-tych, w okresie kryzysu gospodarczego, masowego bezrobocia, upadku PRlowskich zakładów pracy (min. PGRów) itp. ludzie skądś znajdowali pieniądze na zakup odtwarzaczy wideo, dekoderów TV SAT i gier telewizyjnych, co zaowocowało wskaźnikami posiadania tego typu sprzętu na głowę mieszkańca wyższymi niż w Europie Zachodniej. Rzecz jasna te wskaźniki nie były przełożeniem faktycznego poziomu życia, a były raczej bardzo zastanawiającym objawem kryzysu społecznego, w którym to ludzie sztukowali sobie technologią używaną do rozrywki brak środków do godziwego życia1.
Brak regulacji prawnych dotyczących nowego nośnika i prawa autorskiego w ogóle spowodowało powstanie prężnego rynku pirackich kaset wideo (chociażby takich klasyków, jak "Rambo" z amatorskim lektorem2) i wyrastających jak grzyby po deszczu wypożyczalni kaset wideo, które przez długie lata były nieodłączną częścią krajobrazu blokowisk i małych miasteczek.
Pamiętam z dzieciństwa, że brak magnetowidu był czymś tak niesłychanym, jak obecnie brak telefonu komórkowego, i narażał na wręcz towarzyski ostracyzm w szkole, bądź w najlepszym razie uśmiechy politowania. Trwały nawet zawody, kto oglądał najbardziej ostrą lub "gorącą" scenę (co zresztą sporo mówiło o repertuarze oglądanych w domu filmów).
Warto to sobie przypomnieć, gdyż w niektórych przypadkach wciąż słychać błędne przeświadczenie o tym, że rozwój technologii automatycznie prowadzi do większego oświecenia społeczeństwa. Niezależnie czy mówimy o telewizji satelitarnej, VHSie czy Internecie rezultat jest ten sam: technologia przede wszystkim służy rozrywce, niż zdobyciu wiedzy i aktywności społecznej, co zauważył swego czasu pan Morozow.
Przypisy:
1.)Które to trwa po dziś dzień.
2.)Amatorskie bywały też tłumaczenia tytułów; fama głosi że pierwsze kasety z "Robocopem" w 1988 roku nosiły tytuł "Policyjny Gliniarz"…
Nie tak dawno temu, pisząc o "Nauce i technice w 'Avatarze’" napisałem conieco o badaniach prowadzonych w zakresie wprowadzenia nowego napędu odrzutowego, o nazwie SCRAMJET, który umożliwia stworzenie nowego typu pojazdu kosmicznego, startującego i lądującego jak samolot, jednocześnie zdolnego osiągnąć orbitę.
SCRAMJET, przypominam, jest rodzajem silnika odrzutowego (strumieniowego); w czasie lotu w atmosferze pobiera on tlen z powietrza, w przeciwieństwie do napędu rakietowego stosującego tlen z zbiorników. SCRAMJET umożliwia osiągnięcie prędkości rzędu 17 Machów, co wielokrotnie przewyższa prędkości dostępne obecnie stosowanym statkom powietrznym.
Głównym zadaniem tego eksperymentu jest demonstracja nowych materiałów wytrzymałych na wysokie temperatury powstająca w czasie lotu, spowodowane tarciem powietrza przy tak dużej prędkości. Sam pojazd nie posiada skrzydeł, gdyż sama fala uderzeniowa powstała przy takiej szybkości jest w stanie utrzymać do w powietrzu.
Jak może wyglądać lot takiej maszyny, to można zobaczyć na poniższym filmie, przedstawiający lot bezzałogowego X-43A:
http://www.youtube.com/watch?v=IiBsD-cafH8
Nie przewidziano lądowania, pojazd ma spaść do Oceanu Spokojnego, niestety, ograniczenia budżetowe nie przewidują kolejnych startów w tym roku.
Każdy użytkownik Internetu wie, że wszelkie jego prywatność jest w zasadzie iluzoryczna. W końcu każdy serwer odnotowuje adres IP z którego się łączymy z siecią, a do tego przeglądarka przechowuje listę odwiedzonych witryn w swojej historii, oraz pliki tymczasowe, nie mówiąc już o tzw. ciasteczkach ("cookies") które zawierają różne informacje, które potem skrypty na stronach mogą wykorzystywać do śledzenia naszej sieciowej działalności. Przeglądarki Opera i Firefox posiadają nawet tryb prywatny, w którym wyżej wymienione funkcje są tymczasowo wyłączone.
Ostatnio jednak na Slashdocie wyczytałem, że nawet przy zastosowaniu takich środków można wybadać pewne cechy charakterystyczne dla danej przeglądarki (swoisty "odcisk palca") i jej użytkownika w sposób umożliwiający identyfikację tego drugiego.
Przeglądarki internetowe, kontaktując się z serwerem, wysyłają całkiem sporo danych: min. rozdzielczość ekranu, nazwę i wersję przeglądarki, strefę czasową, zainstalowane wtyczki itp. Te informacje są czasami potrzebne, one umożliwiają np. dostosowanie wersji językowej strony internetowej czy po prostu do celów statystycznych umożliwiających udoskonalenie serwisu. Jednak opracowanie algorytmu statystycznego wiążącego ten swoisty "odcisk palca" przeglądarki z poszczególnymi użytkownikami nie jest specjalnie trudny.
Wniosek jest więc prosty: jeszcze raz okazuje się że pełna anonimowość w internecie jest iluzoryczna. A producenci przeglądarek powinni rozszerzyć działanie opcji prywatności także na inne parametry, niźli tylko ciasteczka i historię.
Dziś postaram się zgłębić najciekawsze tematy: awatary, latające góry, i rozwikłać zagadkę Unobtanium.
Co do poprzedniego odcinka otrzymałem kilka komentarzy, że lekceważę możliwość obalenia tezy o nieprzekraczalności prędkości światła. Otóż wcale nie uważam, że fizyka odkryła już wszystko, wręcz przeciwnie. Znane i udowodnione prawa fizyki mają często pewien zakres stosowalności. Jeżeli kiedykolwiek przekroczymy prędkość światła, to prędzej w dziedzinie przekazywania informacji, niż transportu materii. Nie zmienia to faktu, że zanim przywitamy się z Einsteinem i Stephenem Hawkingiem, to musimy najpierw przeprosić się z sir Newtonem.
A teraz, zapraszam do ciągu dalszego:
Klonowanie
Tytułowe awatary to będące dziełem inżynierii genetycznej, dorastające w sztucznej macicy hybrydy DNA mieszkańców Pandory i ludzi. Ich twarze są bardzo podobne do twarzy człowieka-dawcy DNA, i mają pięć palców u rąk i nóg, a nie cztery jak u Na’vich. Ludzie, poprzez specjalne łącza, mogą nimi sterować zdalnie, z drugiej strony otrzymując informacje z ich zmysłów. Każdy awatar może być sterowany przez osobę, która ma DNA identyczne, lub bardzo podobne do swojego operatora (dlatego Jake Sully mógł sterować awatarem przeznaczonym dla swojego zmarłego brata-bliźniaka). Same awatary nie posiadają ani krztyny świadomości i są po prostu czymś w stylu żywych marionetek.
Samo tworzenie awatarów jest logiczne: dla kosmitów (nawet humanoidalnych) to ludzie są obcymi z innego świata, którzy mogą wydawać się odrażający lub po prostu odmienni na tyle, że próba porozumienia się byłaby z góry skazana na porażkę. Stąd pomysł awatarów, których to naukowcy pod kierunkiem dr Grace wchodzą w kontakty z Na’vi i prowadzą badania poza bazą.
Tworzenie hybryd jest jak najbardziej realne, już teraz tworzy się organizmy transgeniczne, zawierające obce geny, swego czasu naukowcy w Wielkiej Brytanii zaszokowali świat, tworząc hybrydowe zygoty z komórek krowich zawierające ludzkie DNA. Tak więc absolutnie nie jest wykluczone że w przyszłości będzie można było tworzyć organizmy o dowolnie dobranym składzie genetycznym. Klonowanie już zostało przeprowadzone, mam tu na myśli słynną owieczkę Dolly. Poza tym są już nawet firmy oferujące klonowanie psów, kotów i innych domowych zwierzaków.
Wiążą się z tym duże problemy natury etycznej. Czy taka hybryda będzie jeszcze istotą ludzką, czy już nie? Nie mam zamiaru w tym miejscu się nad tym rozwodzić, gdyż jest to temat na odrębną dyskusje, trzeba być jednak świadomym tego problemu.
W Pandorapedi jest wzmianka o tym, że pierwsze udane próby z awatarami zostały poczynione przez naukowca o bardzo wątpliwym etycznie zachowaniu. Czyżbyśmy mieli potencjalnego czarnego charaktera do sequela? Zobaczymy…
Na filmie operatorzy awatarów łączą się z nimi poprzez skomplikowane urządzenia, z wyglądu przypominające tomografy komputerowe, które to z jednej strony odczytują z mózgu operatora komendy dotyczące ruchu, a w drugą stronę przekazują operatorowi wrażenia zmysłowe z awatara.
Sterowanie maszynami przy pomocy umysłu jest niezwykle frapującą ideę, która od kilkudziesięciu lat jest tematem poważnych badań, których efektem może być np. pomoc osobom niepełnosprawnym, sparaaliżowanym itp. poprzez stworzenie nowych protez czy metod komunikacji z komputerem.
Nasz układ nerwowy działa na zasadzie przekazywania impulsów elektrycznych, które łatwo można odczytać, jeżeli wepniemy się bezpośrednio do nerwów. Mniej inwazyjnym sposobem może być odczytywanie fal mózgowych, które są wypadkową aktywności naszego mózgu. Niedawno udało się nawet przekazać bioprądy na odległość:
Ludzki mózg emituje fale elektromagnetyczne o bardzo niskiej częstości. W zależności od długości fal zostały one nazwane kolejnymi literami alfabetu greckiego: alfa, beta, gamma theta i delta. Fale mózgowe zarejestrowano i poddawano badaniom już w latach 30tych zeszłego wieku.
Niestety, bez bezpośredniego odpięcia się do nerwów nie da się jednoznacznie i bezproblemowo odczytać sygnałów elektrycznych biegnących nimi. jest w praktyce niemożliwe, albo w najlepszym razie bardzo utrudnione. Próby odczytania takich impulsów poprzez analizę fal mózgowych (elektro-encefalografia – EEG) przypominają trochę badanie mikroprocesora woltomierzem.
Mimo licznych eksperymentów nie udało się z całą pewnością potwierdzić istnienia telepatii, nie mówiąc o tym, że ten obszar badań został zawłaszczony przez pseudonaukę.
Jednak stworzenie środków technicznych umożliwiających stworzenie czegoś będącego odpowiednikiem "naturalnej" telepatii jest jak najbardziej możliwe, np. poprzez pobieranie impulsów nerwowych i ich transmisję na odległość.
Na Pandorze ludzie wydobywają metodą odkrywkową minerał zwany Unobtanium, który kosztuje "20 milionów za kilogram", i który wydaje się być czymś magicznym, lewitując w powietrzu na biurku administratora kolonii.
Sama nazwa to, według przyjętej powszechnie na wpół-żartobliwej definicji, "materiał, minerał pierwiastek itp. będący absolutnie nieosiągalnym, ale jednocześnie bardzo potrzebnym do danego celu".
Ten minerał to nadprzewodnik. Najprostsza definicja nadprzewodnictwa mówi że jest to efekt polegający na zaniku oporności przewodnika oraz na zaniku indukcji magnetycznej wewnątrz przewodnika. Efekt ten jest obserwowany po obniżeniu temperatury do tzw. temperatury krytycznej – charakterystycznej dla danego przewodnika.
Unobtanium jest rewelacyjnym materiałem, który wykazuje nadprzewodnictwo w temperaturze pokojowej. Znane współcześnie nadprzewodniki wykazują swoje właściwości w temperaturach poniżej stu stopni poniżej zera w skali Celsjusza.
Trzeba pogratulować Cameronowi zdrowego rozsądku i pomysłu; nikogo by nie przekonało inwestowania olbrzymich pieniędzy i energii po to aby wydobywać np. krzem czy tytan w innym układzie gwiezdnym…
Brak oporności oznacza brak strat w przekazywaniu prądu. W zamkniętej cewce z nadprzewodnika prąd może płynąć bez końca, generując silne pole magnetyczne. Można wyobrazić sobie linie przesyłowe w których nie zachodzi marnowanie energii podczas jej przekazywania na duże odległości. Już teraz stosuje się potężne elektromagnesy nadprzewodzące do otrzymywania bardzo silnych pól magnetycznych (korzysta się z tego w CERNie do kierowania wiązkami cząstek w akceleratorach). Takie elektromagnesy można wykorzystać np. do konstrukcji kolei magnetycznej (np. niemieckiego pociągu magnetycznego Transrapid) zwanej z angielska "maglevem" (magnetic levitation):
Większość metali wykazuje nadprzewodnictwo w temperaturach bliskich zeru absolutnemu (np. w temperaturze wrzącego helu). Z biegiem czasu zaczęto odkrywać związki chemiczne, których nadprzewodnictwo objawiało się w coraz to wyższych temperaturach. Prawdziwą rewelacją było odkrycie w 1986 roku nadprzewodników wysokotemperaturowych, tj. takich, których temperatura krytyczna jest wyższa niż 100K (skala temperatury Kelwina różni się tym od skali Celsjusza, że punkt zero na jej skali jest zerem absolutnym, ok. -275ºC). Za to odkrycie panowie Karl Müller i Johannes Bednorz z laboratorium firmy IBM dostali Nagrodę Nobla z fizyki w 1987 roku.
Nadprzewodniki, dzięki efektowi Meissnera, odpychają pole magnetyczne stając się idealnymi diamagnetykami. Różne pokazy tego zjawiska, w których magnesy nad nadprzewodnikami lub same nadprzewodniki nad magnesami "lewitują" do złudzenia przypominają gadżet na biurku Selfridge’a:
Przykładowe eksperymenty z użyciem nadprzewodnika, w wykonaniu studentów Politechniki Warszawskiej, można zobaczyć tutaj:
Co ciekawe, obecność Unobtanium na Pandorze jest jednym z powodów, dla których może istnieć na niej życie. Gazowe giganty, jak Polifem, wysyłają olbrzymie ilości szkodliwego promieniowania. Tymczasem nadprzewodnik tworzy własne pole magnetyczne, osłaniając księżyc przed szkodliwym promieniowaniem.
Egzoszkielety
Na filmie ludzie, w szczególności pułkownik Quatrich używają człekokształtnych maszyn z kabiną dla pilota, które naśladują hydraulicznymi nogami i rękoma jego ruchy ciała, zapewniając przy tym ochronę przed środowiskiem zewnętrznym. Poruszają się przy tym niewiele szybciej od człowieka i pozwalają pilotowi używać nadludzkiej siły np. do dźwigania ciężkiego działka czy mocowania się z potężnymi drapieżnikami.
Takie urządzenia to dyżurne akcesorium science-fiction. Pierwszy raz na szeroką skalę wprowadził je Robert A. Heinlein w 1957 roku w powieści "Kawaleria Kosmosu" gdzie Lotna Piechota ludzi używała wspomaganych zbroi wraz z silniczkami rakietowymi do walki z rasą inteligentnych owadów. Zasadniczo można wyróżnić dwie odmiany tego pomysłu: pierwszą są właśnie wspomagane zbroje w miarę ściśle przylegające do ciała użytkownika, a drugim są, mniejsze lub większe, humanoidalne, pilotowane przez człowieka roboty.
Od lewej: egzoszkielet z "Bubblegum Crisis", japońskiej ekranizacji "Żołnierzy Kosmosu" i serialu "VOTOMS".
Japończycy na punckie egzoszkieletów dostali prawdziwego szału, w tamtejszych filmach animowanych i komiksach od wielu lat przewijają się "mechy" (jak są tam zwane tego typu maszyny) we wsztstkich możliwych wariantach i sytuacjach.
Pierwszą próbą stworzenia takiego urządzenia był nieudany "Hardimen" firmy General Electric z lat 60-tych:
http://davidszondy.com/future/robot/hardiman.htm
Ten wspomagany egzoszkielet miał w założeniu służyć zwielokrotnieniu ludzkiej siły, co można by wykorzystać do np. przenoszenia ciężkich ładunków, pracy w elektrowniach atomowych itp.
Jego pełne uruchomienie powodowało coś, coś ujęto jako "tanieć świętego Wita", dlatego więc ze względów bezpieczeństwa poprzestano na skonstruowaniu działających szczypiec obsługiwanych ręką operatora.
Poza tym poważną wadą tego sprzętu była jego pokaźna masa, rzędu 1000 funtów i konieczność zewnętrznego zasilania.
Postęp w dziedzinie robotyki i automatyki spowodował jednak, że w ostatnich latach zainteresowanie egzoszkieletami i podobnymi konstrukcjami jest coraz większe. Wzrost mocy obliczeniowej komputerów powoduje, że systemy wbudowane sterujące robotami są w stanie lepiej koordynować ruchy, uzwględnić bezwładność, czy specyficzne ruchy ciała człowieka.
O to dwunożny "fotel" chodzący, stworzony przez Koreańczyków, nazwany "Hubo FX-1":
Japończycy skonstruowali zestaw siłowników sterowanych ruchami ciała użytkownika, który zwielokrotnia jego siłę wielokrotnie. To urządzenie, zwane HAL-5, planowane do masowej produkcji przy firmę Cyberdyne Inc. jest pomyślane jako wspomaganie dla osób starszych i niepełnosprawnych ruchowo:
Jako ciekawostkę zwracam uwagę, że w innym koreańskim modelu (stworzonym w Koreańskim Instytucie Nauki i Techniki w Seulu) zastosowano rękawice przenoszące ruchy rąk operatora na ruch manipulatorów robota, które do złudzenia przypominają urządzenia noszone na rękach przez pilotów robotów na filmie:
Rzecz jasna całą sprawą od lat zainteresowane jest wojsko, jako sposobu na zwiększenie siły i opancerzenia dla piechoty. Wspomniana wcześniej agencja DARPA bada możliwość skonstruowania egzoszkieletu jako wspomagania dla żołnierzy amerykańskich.
Póki co największym problemem jest zasilanie tego typu układów. Rozsądnym rozwiązaniem wydają się ogniwa paliwowe, przetwarzające ciekłe paliwo wprost na prąd elektryczny poprzez odwrócenie elektrolizy. Tradycyjne siłowniki hydrauliczne, pneumatyczne czy elektryczne ogą być niewystarczające do konstrukcji takiego urządzenia. Przełomem może być opracowanie sztucznych mięśni, z substancji kurczących się i rozciągających pod wpływem prądu elektrycznego.
No i na zakończenie dwa krótkie filmiki:
http://www.youtube.com/watch?v=-w_YV_37ZEY
http://www.youtube.com/watch?v=WkrqjLOpbfg
Latające góry
Latające góry są znakiem firmowym "Avatara". Wygląda to niesamowicie, gdyż przeczy wszystkiemu co znamy na co dzień z naszego szarego życia.
Góry te zawierają duże ilości Unobtanium, co w połączeniu z efektem Meissnera i silnym polem magnetycznym powoduje że unoszą się one w powietrzu.
Niestety, jeden z astrofizyków poproszonych przez Camerona o konsultacje, sprowadził nas na ziemię: "Aby to by było możliwe, to pole magnetyczne by musiało by być tak silne, że by wyrywało hemoglobinę ze krwi".
A szkoda…
Biosieć
Najbardziej fascynującym pomysłem zawartym na filmie jest fakt, iż biosfera Pandory, a więc rośliny i zwierzęta, jest połączona w jedną całość, przypominającą gigantyczną sieć komputerową. Ten cały skomplikowany system posiada samoświadomość, i jest czczony przez Na’vich (którzy mogą się kontaktować z nim poprzez "warkocze" zawierające połączenia nerwowe) jako Eyva, Bogini Matka. Ta okoliczność, podobnie jak możliwość łączenia się z zwierzętami wykorzystywanymi jako wierzchowce, wyjaśnia dlaczego Na’vi nie wykształcili cywilizacji naukowo-technicznej, i czemu traktują każdą roślinę czy zwierze jak świętość.
Ciężko jest powiedzieć, o ile w ogóle, jakie to okoliczności ewolucyjnego rozwoju gatunków mogły by doprowadzić do powstania tego systemu. Faktem jest, że osiągnąłby on stan niemalże idealnej równowagi.
Początkowo byłem sceptyczny co do tego, czy ukazana na filmie scena, w której Na’vi strzałami przebijają kabiny helikopterów jest realna. Ale po wykonaniu kilku prostych obliczeń doszedłem do wniosku, że jest to całkiem możliwe.
Załóżmy, że jeśli strzała ma masę ~0,250 kg (gęstość drewna: 700 kg/m3, długość strzał: ~2m, średnica: 1,5cm) to jej objętość wynosi:
stąd jej masa wyniesie 0,245kg:
Wtedy jej energia kinetyczna dla prędkości 91 m/sek. wynosi 1014 Dżuli:
Dla porównania pociski z AK-47 mają ok. 2000 Dżuli energii kinetycznej (przy masie 8 gram).
Założyłem, że strzały mają prędkość 90 m/s (300 ft/sek), gdyż tyle wynosi prędkość strzały z nowoczesnego długiego łuku. Jeżeli będzie większa, to sami sobie policzcie co z tego by było. Naprawdę ciężko jest określić, jakie możliwości mają łuki na filmie, dlatego proszę to traktować jako pewne przybliżenie.
Warto pamiętać, że wyposażenie strzały w grot z kamienia itp. spowoduje wzrost jej masy, i co za tym idzie istotnie wzmocni jej energię kinetyczną. Poza tym, nie wyposaża się helikopterów w kuloodporne szyby, gdyż są one ciężkie i wrażliwe na drgania.
Dane donośnie strzał itp. wziąłem z tąd:
http://www.hosta.pl/drewno.html
http://www.huntersfriend.com/2007-Carbon-Arrows/arrow-selection-guide5.htm
http://en.wikipedia.org/wiki/7.62x39mm
OK, dzisiaj zajmiemy się czymś poważnym. Wbrew tytułowi nie będzie to kolejna recenzja najnowszego filmowego superprzeboju.
Zajmiemy się fizyką, astronomią i innymi zagadnieniami naukowo-technicznymi, dla których inspiracją może być świat przedstawiony na dużym ekranie. Można też pokusić się odpowiedzi na pytanie na ile z tego wszystkiego jest fantazją pana Camerona, a na ile jest rzeczą znajdującą się w zasięgu nauki i techniki.
Na początek małe ostrzeżenie: nawet tacy klasycy jak Juliusz Verne, Arthur C. Clarke czy Stanisław Lem naginali prawa fizyki itp. o ile było to potrzebne do zawiązania fabuły. Nie będę się zajmował np. tym, czy flora i fauna Pandory jest realna, ani tez tym, jakie są szanse na to, aby ewentualne istoty pozaziemskie wyglądały by jak Na’vi na filmie. Jest to kompletnie bez sensu, gdyż te elementy są od początku pomyślane jako czysta fantazja, służące opowiedzeniu pewnej historii.
Poszczególne zagadnienia będą omawiana z grubsza w kolejności ich ukazywania się na ekranie. A więc, zaczynamy:
Alfa Centauri
Krótko z Wikipedii: Alfa Centauri jest trzecią co do jasności gwiazdą na niebie (jasność obserwowana układu: -0,27m; wielkość absolutna: +4,4m). Jaśniejsze są tylko Syriusz i Kanopus (nie licząc Słońca). Znajduje się ona w gwiazdozbiorze Centaura i nie jest widoczna z północnych szerokości geograficznych (powyżej równoleżnika 29 N). Alfa Centauri to właściwie system składający się z trzech gwiazd tworzących układ potrójny. Te trzy gwiazdy są najbliższymi gwiazdami od Ziemi (po Słońcu).
Porównanie wielkości składników Alfy Centauri i Słońca.
Alfa Centauri jest gwiazdą podwójną, składającą się z dwóch gwiazd Alfa Centauri A i Alfa Centauri B. Odległość od Ziemi wynosi 4,36 lata świetlne. Elipsa orbity gwiazd ma ekscentryczność 0,52, minimalna odległość między gwiazdami wynosi 11,2 j.a., średnia 23,7 j.a., maksymalna 35,6 j.a. (j.a. – jednostka astronomiczna, 1 j.a. = odległość Ziemi od Słońca, czyli ok 150 mln km). Okres obiegu wynosi 80 lat.
Orbita składnika B wokół składnika A
Alfa Centauri A, większa z dwóch gwiazd, jest bardzo podobna do naszego Słońca. Ma taki sam typ widmowy G2V, ale jest nieco bardziej masywna (1,09 masy Słońca) i przez to o połowę jaśniejsza. Alfa Centauri B ma masę wynoszącą 0,9 masy Słońca, typ widmowy K0-1 V, jasność wynoszącą tylko połowę jasności Słońca. Temperatura składnika A wynosi 5800K, a składnika B natomiast 5300K (Słońce ma ok. 5500K, co wskazuje na to, że widmo światła emitowanego przez Alfa Centauri A jest przesunięte ku ultrafioletowi, zgodnie z prawem Wiena).
Do układu Alfa Centauri zaliczana jest też oddalona od większych składników gwiazda Alfa Centauri C, znana także jako Proxima Centauri. Alfa Centauri C jest odległa o 4,22 lata świetlne od Słońca, czemu zawdzięcza swą nazwę Proxima Centauri (proxima – łac. najbliższa). Na niebie gwiazda jest znacznie oddalona od głównej gwiazdy Alfa Centauri i jest widoczna tylko przez teleskop.
Zdjęcia Alfy Centauri, dostępne na serwerze Wiki Sky:
Jest fikcyjnym gazowym gigantem, orbitującym wokół Alfa Centauri A. Niestety, układ podwójny nie sprzyja tworzeniu się gazowych gigantów, dlatego jego istnienie to czysta fantazja.
Jednak istnienie gazowych olbrzymów, i planet w ogólności wokół innych gwiazd jest faktem i każdego roku astronomowie odnajdują coraz to nowe egzoplanety. Według Encyklopedii Pozasłonecznych Układów Planetarnych znamy obecnie już 429 takich planet. Większość z nich to gazowe olbrzymy i masywne "super-Ziemie" (jak np. Gliese 581 d w gwiazdozbiorze Liry).
Przykładowe zdjęcie gwiazdy i jej planet: gwiazda HR 8799 i jej trzy planety, gazowe giganty ok. 10 razy większe od Jowisza.
Wpływ gazowego olbrzyma na orbitujące wokół niego księżyce jest dość poważny. Wystarczy spojrzeć na Jowisza i jego księżyce, Io i Europa. Ten pierwszy jest permanentnie targany intensywnymi siłami przypływowymi (wynikającymi z grawitacji Jowisza), których efektem jest aktywność wulkaniczna na tym księżycu. Z kolei Europa, skuta lodem, najprawdopodobniej posiada pod nim płynną wodę, co może być przyczynkiem do istnienia tam życia.
Księżyc Pandora
Pandora, życiodajny księżyc orbitujący wokół Polifema, jest miejscem akcji filmu. Istnienia księżyców wokół odkrytych egzoplanet nie udało się póki co potwierdzić, ale istnienia absolutnie nie można wykluczyć. Barierą są możliwości współczesnych metod używanych przez astronomów do poszukiwania egzoplanet. "Gdyby Pandora istniała, to moglibyśmy wykryć ją i badać jej atmosferę już w następnej dekadzie" -powiedziała Lisa Kaltenegger z Harvard-Smithsonian Center for Astrophysics (CfA).
średnica biegunowa Polifema: 99606 km średnica równikowa Polifema: 105357 km masa Polifema: 5,78908 * 1026 kg. odległość między Pandorą a Polifemem: 212234 km czas jednego obiegu Pandory wokół Polifema: 27 i pół godziny czas trwania globalnej nocy na Pandorze: 2 godziny
Statek międzygwiezdny "Venture Star"
Koncern RDA do transportu ludzi sprzętu na Pandorę oraz rudy Unobtanium w drugą stronę wykorzystuje statek międzygwiezdny "Venture Star". Sama konstrukcja statku ukazana na filmie mocno odbiega od tego do czego przyzwyczaiły nas stereotypowe wyobrażenia z innych filmów. Zamiast litego kadłuba, statek jest zbudowany z modułów umieszczonych na kratownicy, z czego przedział załogowy jest miniaturowy w porównaniu z silnikiem. Rozgrzane do czerwoności radiatory nadają mu więcej realizmu, gdyż każdy napęd podczas pracy wytwarza dużo nadmiarowego, zbędnego ciepła. Oddalenie załogi od silnika ma też inne uzasadnienie: podczas reakcji jądrowych i anihilacji wytwarza się sporo szkodliwego promieniowania, przed którym najprościej jest się bronić poprzez zwiększenie odległości.
Jeden rok świetlny (czyli odległość jaką światło pokonuje w ciągu roku) to jest, bagatela, 9 460 730 472 580 kilometrów. A do Alfy Centauri jest przeszło 4,3 l.ś… Same podróże międzygwiezdne są możliwe, ale żeby odbyły się one w akceptowalnym przedziale czasowym, to statki muszą rozwijać prędkość będącą poważnym odsetkiem prędkości światła w próżni, która jest największą szybkością w przyrodzie i jest oznaczana w fizyce literą c.
Twórcy filmu zrezygnowali z podróży nadświetlnych z wykorzystaniem np. zakrzywiania przestrzeni i innych pomysłów które na gruncie współczesnej fizyki wydają się wątpliwe, i postawili na podróże z prędkościami podświetlnymi. Podróże takie trwały by długie lata, a do tego można spokojnie zapomnieć o szybkim hamowaniu i rozpędzaniu się, oraz o podróżowaniu z szybkością równą lub prawi równą szybkości c.
Prawa fizyki są nieubłagane: często o tym zapomina się na "Gwiezdnych Wojnach" i "Star Treku", gdzie statki kosmiczne szybują i rozpędzają się błyskawicznie w przeciągu godzin i minut do szybkości podświetlnych, co jest możliwe o ile posiadamy odpowiedni napęd, ale zabójcze dla załogi. W takich przypadkach zapomina się istnieniu przeciążenia, czyli wzrostu ciężaru bezwładnych przedmiotów wewnątrz statku.
Statkowi kosmicznemu prędkość, zgodnie z II Zasadą Newtona ("jeżeli na ciało działa siła, to porusza się ono ruchem przyspieszonym"), nadają silniki działające nań pewną siłą, która poprzez sam statek działa na wszystko co się znajduje na pokładzie. Jaka jest różnica pomiędzy młotkiem spadającym na głowę, a zagłówkiem fotela, który działa siłą na pasażera? Z punktu widzenia fizyki nie ma żadnej.
W praktyce miarą przyspieszenia jest 1g = 10 m/s2, co stanowi przyspieszenie jakie doznaje ciało w polu grawitacyjnym Ziemi. Na pokładzie statku kosmicznego z takim przyspieszeniem panuje przeciążenie 1g. W przypadku dwukrotnie większego przyspieszenia przeciążenie wynosi 2g itp.
Z przeciążeniami możemy spotkać się podczas jazdy samochodem, gdy na zakrętach siła odśrodkowa rzuca pasażerami na boki. Piloci myśliwców doznają przeciążeń znacznie większych, dlatego noszą specjalne kombinezony (por. zdjęcie obok ->) ściskające kończyny dolne i uda, aby zapobiec utracie krwi z głowy. Konsekwencją tego ostatniego jest zjawisko zwane w żargonie "black-outem", czyli "zaćmieniem".
Można by do szybkości 100 000 km/sek. (~0.3c) przyspieszyć w nieco ponad godzinę, ale trzeba by było użyć przyspieszenia 100g (wzrost szybkości o 1000 m/s co sekundę)! Wyobraźmy sobie, co by się działo na pokładzie, gdyby nagle ciężar astronautów i wszystkiego wokół nich wzrósł stukrotnie…
Jako przykład science-fiction które uwzględnia podstawowe prawa fizyki w tym zakresie można podać komiks i powieść "Wieczna Wojna" (napisanej przez Joego Haldemana, z zawodu wykładowcę fizyki), gdzie kosmiczni marines używali urządzeń, które poprzez "napompowanie" ciała specjalnym płynem pozwalały załodze przeżyć przyspieszenia rzędu kilkudziesięciu g:
Dlatego więc, aby ograniczyć przyspieszenia do poziomu akceptowalnego i nieszkodliwego, wszelkie manewry rozpędzania i hamowania musiały by być rozłożone na miesiące. Przyspieszenie do 0.7c zajęło by przy 3g (które każdy człowiek może znieść, choć z trudem) ok. 81 dni (przy 1,5g dwa razy dłużej itp.)
A dlaczego 0.7c? Tyle wynosić średnia prędkość statku. Zgodnie z transformacją Lorentza (którą Einstein wykorzystał do swojej szczególnej teorii względności) przy prędkości 0.7c relatywistyczna masa ciała wzrasta ok. 1,4 raza. Większa masa, to większa bezwładność, i co za tym idzie konieczność użycia większej siły w celu nadania ciału przyspieszenia (=większe zużycie paliwa).
Przy prędkości c masa wzrasta nieskończenie. Dlatego podróże z szybkościami bardzo bliskimi c są niemożliwe, nie mówiąc o prędkości 100% c. Jedynie cząstki nie posiadające masy spoczynkowej, jak fotony, mogą poruszać się z szybkością c.
W przypadku prędkości powyżej 40% c daje znać o sobie zjawisko dylatacji czasu, dzięki czemu czas na pokładzie upływa wolniej, niż w nieruchowym układzie odniesienia. Technicy podczas wybudzania pasażerów mówią im, ze podróż trwała "pięć lat, dziewięć miesięcy i dwadzieścia dwa dni " odejmijmy od tego, czas potrzebny na przyspieszanie i hamowanie, i wychodzi że na pokładzie upłynie ok. trzech lat.
Zgodnie z tym co jest napisane w Pandorapedi "Venture Star" jest napędzany antymaterią. Napęd na antymaterię jest teoretycznie możliwy, i jest faktycznie jedynym rozwiązaniem dla tak dalekich podróży, jeżeli by miały odbywać się w czasie krótszym niż jedno ludzkie życie. W procesie anihilacji cała masa jest zamieniona w energię kwantów promieniowania gamma.
Reakcja 1 kilograma antymaterii z jednym kilogramem materii wyzwoliłoby energię rzędu 1,8*1017 Dżuli, co odpowiada eksplozji 43 megaton trotylu, gdyż zgodnie ze słynnym równaniem Einsteina E=mc2 , cała masa zostaje w całości zamieniona w energię.
Antymateria nie może być przechowywana w zwykłych zbiornikach; jej kontakt z materią błyskawicznie doprowadza do anihilacji. Pozytony i inne anty-cząstki naładowane trzeba przechowywać w polu magnetycznym. To wyjaśnia, dlaczego "Venture Star" posiada dodatkowo reaktor termojądrowy, używany do podtrzymania pułapek magnetycznych dla antymaterii.
Hibernacja
Ten zabieg jest powszechny w science-fiction, gdyż jest rozsądnym środkiem na uśpienie części załogi na okres wieloletniej podróży, tak, aby załoga nie zużywała bezcennych zapasów tlenu, żywności itp. Niestety, naturalna hibernacja u ludzi, na podobieństwo tej u zwierząt, jest niemożliwa.
Istnieje dział nauki i techniki zwany krioniką, który ma więcej wspólnego z ekscentrycznym sposobem pochówku niż rzeczywistym odpowiednikiem hibernacji znanej z SF. Polega ona na zamrożeniu ludzkich zwłok w ciekłym azocie krótko po stwierdzeniu śmierci klinicznej tak, aby po latach (wiekach?) stało się możliwe przywrócenie do życia danej osoby.
Przeprowadzono już wiele eksperymentów na zwierzętach, związanych z zamrażaniem na pewien okres czasu ciała po spuszczeniu z niego krwi i zastąpieniu jej przez roztwór zamrażający. Następnie postępowano odwrotnie przy ożywianiu. Mimo sukcesów, u sporego odsetku zwierząt stwierdzono uszkodzenia mózgu, co rzecz jasna wyklucza testowanie tej metody u ludzi.
Z tego co mi wiadomo niedawno dr Mark Roth przeprowadził udane eksperymenty na myszach (które nie potrafią naturalnie hibernować się) z użyciem precyzyjnie dobranej dawki siarkowodoru, tak aby spowolnić procesy życiowe do poziomu absolutnie minimalnego. U ludzi dodatkowo trzeba by było obniżyć temperaturę ciała.
Na filmie ten pojazd jest wykorzystywany przez ludzi do wożenia ładunków i ludzi z orbity do bazy na powierzchni planety. Jest pojazdem kosmicznym wielokrotnego użytku (na podobieństwo do współczesnego promu kosmicznego) z tą różnicą że startuje i porusza się jak zwykły samolot (amerykański prom kosmiczny startuje jak klasyczna rakieta, korzystając z pomocy dwóch rakiet na paliwo stałe, oraz dużego zbiornika na paliwo).
Najprawdopodobniej wyposażony w silniki typu SCRAMJET w wariancie przekształcającym się płynnie w czasie wznoszenia w silnik rakietowy, poprzez uzupełnianie niedoboru tlenu w powietrzu (którego ilość maleje wraz z wysokością) tlenem ze zbiorników paliwa (inne silniki np. SABRE, wykorzystują przechłodzone powietrze), oraz cztery odchylane silniki turboodrzutowe do lotu w atmosferze oraz manewrów pionowego startu i lądowania.
Taki pojazd to żadne science-fiction, ale jak najbardziej konkretny dział techniki lotniczej i kosmicznej. Na początku Konstanty Ciołkowski, pioner i teoretyk astronautyki, zauważył że jeżeli samolot posiada napęd rakietowy, to wówczas nie ma limitu wysokości osiągalnej przez niego., co można wykorzystać jdo osiągnięcia orbity okołoziemskiej. Użycie rakietoplanu do transportu na orbitę jest o tyle atrakcyjne, że obniża koszty, eliminuję konieczność używania kosztownych klasycznych rakiet oraz gwarantuje większe bezpieczeństwo poprzez sam fakt podobieństwa w istocie działania pojazdu do samolotu.
W zeszłym roku NASA przeprowadziło udany test bezzałogowego pojazdu X-41, który wyposażony w scramjet osiągnął prędkość 9.6 Machów, czyli prawie dziesięć razy większą od prędkości dźwięku w powietrzu:
Trzeba pamiętać, że ewentualny start takiego promu najlepiej żeby był wspomagany dodatkowymi rakietami pomocniczymi, lub też żeby pojazd był wyniesiony do stratosfery na grzbiecie samolotu transportowego (co było pierwotnym pomysłem przy opracowywaniu amerykańskiego Space Shuttle, czy radzieckiego rakietoplanu Albatros), w celu zaoszczędzenia paliwa i masy pojazdu.
Jedna z pierwszych propozycji Space Shuttle z lat 70-tych XX wieku.
Rosjanie i Amerykanie eksperymentowali z rakietoplanami już w latach 50-tych i 60-tych, rozważając wiele konstrukcji przykładem niech będzie DYNA-SOAR czy X-30 (oba projekty skasowano), jak i radzieckie konstrukcje MiG-105-11 (przeszedł kilka lotów ślizgowych) i Spiral OS (studium teoretyczne):
Po lewej amerykański Dyna-Soar, po prawej radziecki MiG-105.
Przykładem konstrukcji będących w opracowaniu może być indyjski "Avatar" (startujący na szczycie klasycznej rakiety nośnej) czy brytyjski Skylon firmy Reactions Engines:
Po lewej: artystyczna wizja Skylon’a w czasie lotu na orbitę, po prawej: model "Avatara".
Udane próby przechodzi w ostatnich latach prywatny statek suborbitalny SpaceShipTwo, bazujący na pomyśle samolotu-matki, pomyślany jako pierwszy komercyjny statek kosmiczny, dający pasażerom siedem minut lotu ponad atmosferą Ziemi.
Poniżej, animacja pokazująca przewidziany lot takiego pojazdu:
Walkiria na filmie jest ukazana jako maszyna zdolna do pionowego startu i lądowania (VTOL – Vertical Take-Off and Landing). Takie pojazdy do nic nowego: wystarczy wspomnieć słynnego brytyjskiego Harriera, radzieckiego Jaka-141 czy amerykańskiego V-22 Osprey i F-35 Lightning. W przypadku samolotów odrzutowych stosuje się odchylane dysze wylotowe nośne i sterujące.
Jak-141 z odchylonymi dyszami podczas lotu pionowego.
Tego typu samoloty sprawiają duże problemy związane ze sterowaniem czy wydajnością silników. V-22 zaliczył już kilka kraks spowodowanych awarią komputerów pokładowych. Zaletą tego typu maszyn jest brak wymagania długich pasów startowych, co jest istotne z punktu widzenia np. lotniskowców czy lotnisk w trudnych warunkach polowych (np. na pustyni czy terenach podmokłych), oraz możliwość zastąpienia helikopterów w pewnych sytuacjach. W jednej ze scen Walkiria leci powoli z silnikami w pozycji nośnej – w takiej sytuacji problemem jest b. duże zużycie paliwa i ryzyko utraty sterowności w przypadku awarii jednego z silników (co wykorzystuje bohater filmu w czasie finałowej bitwy).
W następnym odcinku: Unobtanium, nadprzewodniki, klonowanie, awatary, egzoszkielety, latające góry i biosieci.