Byt z bitu
Wiedza i niewiedza

Byt z bitu

Philip Perry
Czyta się 4 minuty

Ludzie od wieków się zastanawiali, z czego tak naprawdę zbudowany jest wszechświat. Według niektórych współczesnych naukowców u podstaw wszystkiego, co istnieje, leży informacja.

Jest wiele teorii na temat tego, co konkretnie stanowi budulec wszechświata. Niektórzy fizycy mówią o cząstkach subatomowych. Inni opowiadają się po stronie energii albo czasoprzestrzeni. Ale istnieje też kontrowersyjna koncepcja, według której na miano fundamentu wszechświata zasługuje informacja. Idea ta narodziła się w połowie XX w. i za sprawą niewielkiego grona wybitnych uczonych przeżywa obecnie swój renesans.

Za twórcę klasycznej teorii informacji uważany jest matematyk i inżynier Claude Elwood Shannon (1916–2001). Choć mało kto poza światem nauki zna jego nazwisko, przez specjalistów nazywany jest ojcem ery cyfrowej. W 1940 r. Shannon, pracujący wówczas w MIT, miał przebłysk geniuszu: dostrzegł powiązanie między algebrą Boole’a a centralami telefonicznymi. Niedługo potem został zatrudniony przez Bell Labs. Firma powierzyła mu zadanie wynalezienia najbardziej efektywnego sposobu przekazywania informacji za pośrednictwem kabla. W 1948 r. Shannon napisał Matematyczną teorię komunikacji będącą fundamentem epoki cyfrowej. Pierwszy wykazał, że prawa matematyczne można stosować do projektowania układów scalonych. Dziś jego koncepcje wykorzystuje się powszechnie, m.in. przy tworzeniu systemów komunikacyjnych i komputerowych, hardware’u i software’u. Wszystko, co służy do generowania, gromadzenia lub przekazywania informacji drogą elektroniczną, bazuje na książce Shannona.

Amerykański matematyk przedstawił również definicję jednostki informacji, czyli bitu. Bit może przyjąć wartość zero lub jeden. Serie takich zer i jedynek pozwalają przechowywać i odtwarzać informacje elektronicznie. Shannon pierwszy przekształcił też dane w towar. Wartość danych – pisał – jest proporcjonalna do tego, jak bardzo zaskakują one konsumenta.

Informacja

Z ostatniej chwili! To ostatnia z Twoich pięciu treści dostępnych bezpłatnie w tym miesiącu. Słuchaj i czytaj bez ograniczeń – zapraszamy do prenumeraty cyfrowej!

Subskrybuj

Powiązał nawet komunikację elektroniczną z termodynamiką: to, co dziś określa się mianem entropii Shannona, służy mierzeniu nieuporządkowania lub losowości będących nieusuwalnymi cechami każdego systemu komunikacji. Im większa entropia, tym mniej zrozumiały przekaz. Trzeba także pamiętać, że Shannon pracował nad swoją teorią informacji podczas drugiej wojny światowej, próbując rozwiązać problem przesyłania szyfrowanych wiadomości za pomocą linii telegraficznych i telefonicznych nieuchronnie podatnych na różnego rodzaju zakłócenia.

Teoria informacji znalazła zastosowanie w muzyce, genetyce, finansach i mnóstwie innych dziedzin. Wpisuje się też w mechanikę kwantową. Cząstki dostarczają nam sporo informacji o sobie i na temat działających na nie sił. Położenie, ruch, zachowanie oraz rozmaite inne cechy da się wyrazić w postaci informacji i zapisać za pomocą zer i jedynek. Cząstki subatomowe są zatem niczym bity przetwarzane przez wszechświat jak przez gigantyczny superkomputer.

Tymczasem James Gleick, autor książki Informacja. Bit, wszechświat, rewolucja, przekonuje, że to nie Shannon, lecz matematyk Charles Babbage na początku XIX stulecia pierwszy uznał informację za zasadniczy budulec wszystkiego, co istnieje. Babbage’a nazywa się dziś twórcą koncepcji komputera, która miała powstać długo przed tym, zanim ktokolwiek uzyskał możliwość zbudowania takiej maszyny.

Orędownikiem teorii informacji był także John Archibald Wheeler, kolejny naukowiec wybitny, choć szerzej nieznany; autor terminów „czarna dziura” i „tunel czasoprzestrzenny”, współpracownik Nielsa Bohra i Alberta Einsteina.

W latach 80. XX w. Wheeler analizował powiązania teorii informacji z mechaniką kwantową. Właśnie w tamtym okresie ukuł powiedzenie „byt z bitu” (ang. it from bit). Stanowi ono wyraz koncepcji, wedle której wszechświat to emanacja zawartej w nim informacji. Każdy byt – każda cząstka – to w istocie bit. Byt z bitu. W 1989 r. Wheeler wygłosił referat w Santa Fe, w którym powiedział: „Każdy byt – cząstka, pole, nawet czasoprzestrzeń – zawdzięcza swą funkcję, znaczenie i istnienie mechanizmom uzyskującym odpowiedzi typu »tak« lub »nie«, binarnym opozycjom, bitom”.

Trzeba odnotować, że zdaniem większości fizyków podstawą wszechświata jest materia. Możliwości weryfikowania teorii informacji są natomiast ograniczone. Trudno wyobrazić sobie badania, które by ją potwierdziły lub obaliły.

Jeżeli rzeczywistość faktycznie daje się sprowadzić do informacji, to czy niezbędne jest istnienie świadomego umysłu, który wszystko interpretuje i rozumie? Wheeler uważał, że żadne zjawisko nie jest rzeczywiste, dopóki nie zostanie zaobserwowane. Opracował koncepcję, którą nazywał participatory anthropic principle – co można przetłumaczyć jako zasadę ludzkiego uczestnictwa. Był zdania, że jako obserwatorzy uczestniczymy w powoływaniu do rzeczywistości zjawisk zarówno ­bezpośrednio nas otaczających, jak i tych odległych w czasie i przestrzeni. Nie tylko wszechświat jest konieczny, by istnieli obserwatorzy, lecz także my (lub inni obserwatorzy) jesteśmy nieodzowni dla istnienia wszechświata.

Współczesna fizyka często dochodzi do ściany. Niektórzy naukowcy mają nadzieję, że teoria informacji pozwoli pogodzić ogólną teorię względności z mechaniką kwantową. Albo że przyczyni się do wykrywania i lepszego zrozumienia ciemnej materii oraz ciemnej energii, które łącznie stanowią 95% znanego wszechświata, ale na razie nie mamy pojęcia, czym konkretnie są. Aby jednak teoria informacji zyskała większą rangę, musi znaleźć potwierdzenie w twardych danych. Dopóki się to nie stanie, będzie tylko hipotezą.

Pierwotnie tekst ukazał się na stronie Big Think.


 

Czytaj również:

Neurony przejmują władzę
i
Jackson Pollock, "Odblask Wielkiej Niedźwiedzicy", 1947 r.; zdjęcie: East News
Wiedza i niewiedza

Neurony przejmują władzę

Łukasz Stępnik

Jak to możliwe, że formy architektoniczne są w stanie wyrażać określone emocje albo nastroje? – pytał szwajcarski historyk sztuki Heinrich Wölfflin. Po niemalże 100 latach odpowiedzi udziela warszawski architekt.

Zakodowana empatia

Historia zaczyna się na uniwersytecie w Parmie gdzieś w okolicach 1990 r. Grupa włoskich neurofizjologów bez reszty pochłonięta jest badaniami kory mózgu makaków. Okrągłe elektrody na głowach zwierząt przesyłają do komputerów informacje o pracy poszczególnych grup neuronów, podczas gdy ich właściciele ochoczo sięgają po ostrożnie dawkowane im przez naukowców frykasy. W pewnym momencie badacze zauważają jednak coś dziwnego – obszar mózgu, który zazwyczaj aktywował się w momencie chwytania przez małpkę jedzenia, szaleje też w chwili, kiedy podnosi je obserwowany przez nią człowiek. Co to właściwie może znaczyć? Włosi formułują osobliwą hipotezę: zwierzęta mają neurony lustrzane, które reagują na działanie innych osobników, niekoniecznie tego samego gatunku, tak jakby było ich własnym. Dzisiaj większość naukowców uważa, że podobny system występuje też u ludzi. Kiedy widzimy osobę unoszącą filiżankę herbaty, część naszego mózgu uznaje, że robimy to sami. To coś w rodzaju wrodzonej empatii, pozwalającej nam się uczyć i rozpoznawać emocje u innych. Nie jest w tym przypadku istotne, czy spoglądamy na człowieka, psa czy makaka – liczy się to, czy potrafimy odnieść obserwowaną akcję do własnego doświadczenia i pamięci.

Czytaj dalej