Firmy, takie jak Paradromics i Cortera Neurotechnologies, skupiły się na zastosowaniach medycznych. Start-up Neurable nastawił się na stworzenie obsługiwanej myślami gry komputerowej. Z kolei Facebook w ramach swojego sekretnego laboratorium Building 8 pracował nad czapką służącą do przesyłania myśli w formie zdań, docelowo w tempie stu wyrazów na minutę, a więc szybciej, niż można pisać na telefonie. Do zadania tego oddelegowano sześćdziesięciu inżynierów, a projekt oddano pod pieczę ściągniętej z kierowniczej funkcji w Google Reginy Dugan, nomen omen byłej szefowej DARPA [amerykańska agencja rządowa zajmująca się rozwojem technologii wojskowej – w latach 2009–2012. Pod koniec 2018 roku Building 8 zamknięto, a prace przeniesiono do Facebook Reality Labs. To tam w 2019 roku opracowano wersję 1.0 opaski-czytnika do komunikowania się z elektroniką bez użycia rąk. Gdy zostanie ona udoskonalona i wejdzie do powszechnego użytku, zainicjuje zupełnie nową formułę funkcjonowania w rzeczywistości wirtualnej. Pozwoli też sterować muzyką i kontrolować urządzenia mobilne. Uczestniczenie w mediach społecznościowych za pomocą myśli otworzy nowy rozdział w ich dotychczasowej krótkiej historii. Wielu użytkowników błyskawicznie, często zupełnie spontanicznie, umieszcza posty i komentarze, emotikonkowe lajki i dislajki. W przyszłości będą to robili, jeszcze zanim w pełni uświadomią sobie swoje odczucia i myśli.
„Pisać” w mózgu
Wiele firm pracuje nad udoskonaleniem i przystosowaniem do rozmaitych komercyjnych zastosowań technologii znanej jako interfejs mózg-komputer (brain-computer interface, BCI) i mózg-maszyna (brain-machine interface, BMI). Pojęcie „interfejs” oznacza powierzchnię stanowiącą strefę kontaktu między obiektami lub systemami. Interfejsy neuronalne występują w formie inwazyjnej, kiedy elektrody są wszczepione do mózgu, albo nieinwazyjnej, kiedy są rozmieszczone na powierzchni czaszki. Generalnie na system składają się właśnie elektrody, mapujące aktywność neuronów, oraz dekoder i algorytm, które przekształcają ją na kod cyfrowy. Służy on następnie do sterowania urządzeniami czy obsługi oprogramowania. Praca interfejsu zasadza się na wykrywaniu i identyfikowaniu impulsów wskazujących na zamiar mózgu, który wkrótce wywoła jakieś działanie, na przykład przesunięcie prawej ręki albo wypowiedzenie słów „Jak się masz?”.
Mózg funkcjonuje na podstawie sygnału zwrotnego z otoczenia. Dzięki niemu dostosowuje swoją aktywność, na przykład dalszy ruch podniesionej nogi uzależnia od tego, czy znalazła się we właściwym położeniu. Dlatego ideałem są interfejsy dwukierunkowe, dostarczające informacji o efektach podjętych działań i pozwalające „pisać” w mózgu. Jaki jest mechanizm ich działania? Otóż zdekodowana aktywność neuronalna staje się sygnałem wejściowym, umożliwiającym, powiedzmy, sterowanie protezą ręki. Umieszczone na niej czujniki zbierają dane na temat charakteru dotykanej powierzchni, siły nacisku czy temperatury obiektu i tym podobnych. Odpowiednio przekształcone informacje trafiają następnie do mózgu w formie konkretnego wzoru pobudzania neuronów. Sprzężenie zwrotne umożliwia swoisty „dialog” między człowiekiem i maszyną. Zanim jednak do tego dojdzie, interfejs trzeba skalibrować. Należy go dostosować do użytkownika, który z kolei musi nauczyć się nim posługiwać. Musi wyćwiczyć koncentrację, by intensywnie myśleć, na przykład o konkretnym ruchu ręki, przesunięciu kursora na dół ekranu, kliknięciu w konkretną ikonę, uruchomieniu wybranej aplikacji lub poderwaniu drona do lotu.
Muskowi ciągle mało
Charles Sherrington, laureat Nagrody Nobla w dziedzinie fizjologii i medycyny w 1932 roku, który ukuł termin „synapsa”, wskazał, że miejscem docelowym szlaków nerwowych są mięśnie. Pisał: „człowiek może poruszać rzeczami, a robi to wyłącznie za pomocą mięśni, niezależnie od tego, czy chodzi o wyszeptanie sylaby czy o wycięcie lasu”. Interfejs mózg-komputer zdezaktualizował to twierdzenie Sherringtona. Punktem docelowym szlaków nerwowych wcale nie muszą być mięśnie. Może nim być – bez udziału obwodowego układu nerwowego lub zmysłów – komputer, maszyna bądź algorytm. Człowiek może poruszać coraz bardziej zaawansowanymi i złożonymi elektronicznymi „rzeczami” z całkowitym pominięciem mięśni. Gdy sygnał wydobyty z mózgu znajdzie się w komputerze, może stamtąd powędrować dosłownie wszędzie. Można go podłączyć do niemal każdego urządzenia sterowanego komputerowo. Można go przesłać na odległość kilku metrów do sąsiedniego pomieszczenia albo kilkudziesięciu tysięcy kilometrów do dalekiego kraju na innym kontynencie. Można go podłączyć do włącznika i wyłącznika, do mechanicznej protezy albo do drona, do wózka inwalidzkiego albo do gry komputerowej. Za jego pomocą można będzie pisać i przesyłać wiadomości tekstowe lub lajkować posty w mediach społecznościowych. Ponieważ te potencjalne zastosowania są nieprzebrane, nie dziwi ogromne zainteresowanie rozwojem tej technologii ze strony sektora biznesowego. Według prognoz wartość globalnego rynku interfejsów mózg-komputer, którą w 2019 roku szacowano na 1,36 miliarda dolarów, w 2027 roku wzrośnie do 3,85 miliarda dolarów. Tak więc komercyjny wyścig w sferze neuroprotetyki trwa, a na pozycję lidera wysunęła się firma Neuralink.
Elonowi Muskowi, słynnemu przedsiębiorcy i innowatorowi, jakby mało było spektakularnych sukcesów w dziedzinie rakiet wielorazowego użytku (SpaceX), elektrycznych samochodów (Tesla), ogromnych paneli fotowoltaicznych (SolarCity) i systemu transportowego dużych prędkości w rurach próżniowych (Hyperloop). Postanowił także zrewolucjonizować technologię interfejsów. W lipcu 2016 roku założył nową firmę badawczo-rozwojową Neuralink, o czym rok później doniósł „Wall Street Journal”. Ambitnym celem tego przedsięwzięcia jest funkcjonalne i inwazyjne połączenie mózgu z komputerem.
Musk traktuje ten plan bardzo poważnie i dalekosiężnie. Przedstawia go jako swoistą misję humanitarną, która ma ocalić człowieczeństwo przed konsekwencjami rozwoju sztucznej inteligencji. Cyfrowa superinteligencja błyskawicznie i całkowicie zdeklasyfikuje bowiem człowieka. A ludzie nie będą w stanie w pełni wykorzystać potencjału SI [sztucznej inteligencji], ponieważ w porównaniu z komputerami stanowczo zbyt wolno przetwarzamy i przekazujemy dane. Ale szybciej po prostu nie możemy. „Dla komputera”, przekonuje Musk, „ludzka mowa będzie brzmiała niczym bardzo powolne tonalne sapanie, trochę jak dźwięki wielorybów”. Najlepszym rozwiązaniem tego cywilizacyjnego i egzystencjalnego wyzwania jest połączenie mózgu ze sztuczną inteligencją. Jeśli bowiem, nawołuje Musk, „nie możemy jej pokonać, to do niej dołączmy”. Wybawieniem, jakie proponuje, jest symbioza z SI, chmurami obliczeniowymi i wirtualnymi magazynami danych oraz globalną siecią.