Przełom w dziedzinie „superinteligencji” zgłoszony przez OpenAI

Listopada 24, 2023

OpenAI, organizacja macierzysta Chata, wydaje się być u progu monumentalnego osiągnięcia – rozwiązania zagadki „superinteligencji”. Jednak ten potencjalny przełom niesie ze sobą głębokie implikacje dla przyszłości ludzkości.

Nagłe zwolnienie i późniejsze ponowne mianowanie współzałożyciela i dyrektora generalnego OpenAI, Sama Altmana, było tematem wielu dyskusji w świecie technologii. Wciąż pojawiają się nowe spostrzeżenia na temat katalizatora tego ruchu, a raport The Information przypisuje wewnętrzne zamieszanie znaczącemu postępowi w dziedzinie Generative AI. Rozwój ten może potencjalnie utorować drogę do pojawienia się „superinteligencji” w ciągu tej dekady lub nawet wcześniej.

„Superinteligencja”, jak sugeruje sama nazwa, odnosi się do inteligencji, która przekracza ludzkie możliwości. Oczywiście utworzenie systemu sztucznej inteligencji posiadającego taką inteligencję bez odpowiednich zabezpieczeń budzi poważne obawy.

Główny naukowiec OpenAI Ilya Sutskever, który również zasiada w zarządzie, miał przewodzić tej przełomowej inicjatywie. Umożliwia ona AI wykorzystanie czystszych, generowanych komputerowo danych do rozwiązywania niespotykanych dotąd problemów. Oznacza to, że AI nie jest szkolona na wielu iteracjach tego samego problemu, ale na informacjach, które nie są bezpośrednio związane z problemem. Rozwiązywanie problemów w ten sposób, zazwyczaj matematycznych lub naukowych, wymaga rozumowania – ludzkiej cechy, która zazwyczaj nie jest kojarzona z AI.

Czat, flagowy produkt OpenAI oparty na Model dużego języka GPT (LLM), biorąc pod uwagę jego pozorną inteligencję, może sprawiać wrażenie, że posługuje się rozumowaniem do formułowania odpowiedzi. Jednak po bliższej interakcji z Chatem staje się oczywiste, że po prostu powtarza to, czego nauczył się z ogromnych ilości przetworzonych danych, formułując w większości trafne przewidywania dotyczące konstruowania spójnych zdań, istotnych dla zapytania. Rozumowanie nie ma tu zastosowania.

Informacje wskazują, że to przełomowe wydarzenie, o którym Altman mógł wspomnieć na niedawnej konferencji, stwierdzając: „osobiście, zaledwie w ciągu ostatnich kilku tygodni miałem okazję być w tym pokoju, kiedy w pewien sposób odsunęliśmy zasłonę niewiedzy i przesunęliśmy granicę odkryć do przodu”, wywołało szok w OpenAI.

Postępowanie z zagrożeniem

Chociaż na chwilę obecną Chat nie wykazuje oznak superinteligencji, prawdopodobne jest, że OpenAI podejmuje kroki w celu włączenia części tej mocy do swoich produktów premium, takich jak GPT-4 Turbo i przyszli „inteligentni agenci”.

Nawiązanie związku między ostatnimi działaniami zarządu, początkowo wspieranymi przez Sutskevera, a przełomem w superinteligencji może wydawać się nieprawdopodobne. Zgłoszony przełom nastąpił kilka miesięcy temu i skłonił Sutskevera i innego naukowca OpenAI, Jana Leike, do założenia nowej grupy badawczej OpenAI o nazwie „Superalignment”, której zadaniem jest opracowanie zabezpieczeń dla superinteligencji.

Co ciekawe, ta sama firma, która jest pionierem w rozwoju superinteligencji, jednocześnie konstruuje mechanizmy, które mają nas przed nią chronić, co przypomina doktora Frankensteina uzbrajającego mieszkańców wioski w miotacze ognia.

Z raportu niejednoznaczne pozostaje to, czy wewnętrzne obawy związane z szybkim postępem w kierunku superwywiadu bezpośrednio doprowadziły do ​​zwolnienia Altmana. Być może, w ogólnym ujęciu, nie ma to znaczenia.

Na chwilę obecną Altman jest na dobrej drodze, aby powrócić na swoje stanowisko w OpenAI, zarząd został zrestrukturyzowany, a dążenie do rozwoju superinteligencji – i ochrony przed nią – trwa.

Dla tych, którzy uważają te wydarzenia za niezrozumiałe, pomocna może okazać się rozmowa na czacie w celu uzyskania wyjaśnień.