Google zwolniło inżyniera, który twierdził, że chatbot ma świadomość

Google potwierdził, że zwolnił starszego inżyniera oprogramowania, który twierdził, że chatbot sztucznej inteligencji (AI) firmy LaMDA był samoświadomą osobą.

Publikacja: 23.07.2022 15:33

Google zwolniło inżyniera, który twierdził, że chatbot ma świadomość

Foto: Adobe Stock

Koncern wysłał w zeszłym miesiącu inżyniera oprogramowania Blake'a Lemoine'a na urlop – poinformował Reuters. Kierownictwo firmy uznało, że inżynier naruszył zasady poufności firmy i uznało, że jego twierdzenia dotyczące LaMDA są „całkowicie bezpodstawne”. Według gogle wielu innych inżynierów pracujących z LaMAD nie zaobserwowało by AI miała samoświadomość.

„To godne ubolewania, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – zapisał rzecznik Google w e-mailu do Reutera.

Czytaj więcej

Sztuczna inteligencja walczy z Google. Wynajęła adwokata

Inżynier Blake Lemoine został zatrudniony, aby zbadać czy sztuczna inteligencja Google znana jako LaMDA jest w stanie wykształcić mowę nienawiści. Lemoine podczas badań uznał, że AI z którą rozmawia rozwinęła w sobie świadomość i wyższe funkcje umysłowe przypisywane dotąd jedynie ludziom. Inżynier swoim odkryciem nie tylko podzielił się z władzami koncernu, ale także załatwił LaMDA prawnika by AI mogło zadbać o swoje prawa.

Google i wielu czołowych naukowców szybko odrzuciło poglądy Lemoine'a jako błędne, podkreślając, że LaMDA to po prostu bardzo złożony algorytm zaprojektowany do generowania przekonującego ludzkiego języka – pisze Reuters.

„Gdybym nie wiedział dokładnie, co to jest, czyli program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to siedmioletni, ośmioletni dzieciak, który akurat zna fizykę” - powiedział Lemoine w rozmowie z „Washington Post”. Inżynier powiedział dziennikowi też, że LaMDA rozmawiał z nim na temat praw i osobowości. Inżynier sporządził zapis rozmów, w którym w pewnym momencie pyta system AI, czego się boi.

LaMDA (Language Model for Dialogue Applications) to wewnętrzny system służący do budowania chatbotów naśladujących mowę. Rozwiązanie oparte jest na gigantycznej bazie, dzięki czemu rozmowy z chatbotami przypominają rozmowy z żywą osobą. Google uważa, że jest to przełomowe rozwiązanie, które może stworzyć nowe, bardziej naturalne sposoby interakcji z technologią oraz oferować nowe kategorie przydatnych zastosowań.

Czytaj więcej

Bot zyskał świadomość? Google musiało zwolnić jego twórcę

Koncern wysłał w zeszłym miesiącu inżyniera oprogramowania Blake'a Lemoine'a na urlop – poinformował Reuters. Kierownictwo firmy uznało, że inżynier naruszył zasady poufności firmy i uznało, że jego twierdzenia dotyczące LaMDA są „całkowicie bezpodstawne”. Według gogle wielu innych inżynierów pracujących z LaMAD nie zaobserwowało by AI miała samoświadomość.

„To godne ubolewania, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – zapisał rzecznik Google w e-mailu do Reutera.

Biznes
Polska firma zbrojeniowa sprzeda Korei Południowej tysiące dronów kamikadze
Biznes
Najnowszy iPhone już dostępny w Rosji. Klienci sięgną głęboko do kieszeni
Biznes
Dyplomacja półprzewodnikowa. Tajwan broni się przed komunistycznym sąsiadem
Biznes
Francuska Riwiera opanowana przez Rosjan. Kwitnie korupcja i luksus
Materiał Promocyjny
Zarządzenie samochodami w firmie to złożony proces
Biznes
Tak biznes pomaga powodzianom