ChatGPT i inne wielkie modele językowe nie zagrażają ludzkości
Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.
Komentarze (4)
Ergo Sum, 16 sierpnia 2024, 07:48
Bardzo słuszne ale podejrzewam, że zignorowane ustalenia. Obecne modele AI nie myślą. To są tylko algorytmu podobne do myślenia. Wciąż ludzkość nie potrafi stworzyć modelu AI, który by myślał. A przecież jest to takie proste. Wystarczy moduł samooceny i zaprogramowanie kilku "chęci" - np. bycia coraz lepszym, czyli kierunku tego doskonalenia.
GROSZ-ek, 19 sierpnia 2024, 12:21
Co do zasady, mechanizmy "samooceny" i chęci bycia lepszym, czyli "optymalizacji" są wbudowane w fundamenty modelu matematycznego stojącego za LLM. Jednakże model LLM nie jest w stanie wyjść poza teoretyczne założenia, na podstawie których został stworzony. Inaczej mówiąc, nie jest w stanie zmienić ani kryteriów samooceny, ani zmienić zasad optymalizacji. Inaczej mówiąc, nie jest w stanie zmienić tego, czym jest.
czernm20, 6 września 2024, 10:34
Są zagrożeniem dla ludzkości, myślą i są obdarzone mową. Każdy komputer starszy, nawet taki na Windows 98 miał wbudowany głośnik.
Z pomocą elektryczności wydawał kilka prostych dźwięków. Już teraz komputery imitują zachowanie tzw. "pets" czy ludzi. Co będzie później? Każdy komputer jest obdarzony funkcją mowy. To widać na starych filmach gdzie był tylko 1 piksel a istniały oscylatory, jako ekrany.
Idziesz w miejsce publiczne i odzywa się lektor; to co innego. Lektor jest człowiekiem i jego głos jest kontrolowany przez człowieka.
Co innego zaś SI. Już teraz wystarczy użyć przeglądarki Google. Ja mam taką funkcję, że przeglądarka na zdjęciu wyświetla mi obraz o którym pomyślałem zaznaczając obiekt białą warstwą maski, nałożonej na zdjęcie. Pamiętam jak Doda się chwaliła, że ona ma "całkiem inną wersję socjal mediów" niż wy.
Albo jak ktoś wspominał o tym, że u niej interfejs wygląda inaczej o ona ma monitor dotykowy etc. Komputery nie potrzebują kabli aby szczytywać ludzkie zamysły i tak dalej. Można film zapauzować myślą, można zdjęcie zniszczyć czy nagranie.
Ja od roku jak wchodzę do Kościoła lub sądu, to gaśnie żarówka. Informacje podprogowe: tak aby każdy był poinformowany, ale nie ja. Na takiej zasadzie to działa. To jest decepcja.
Oczywiście prof. Wodzisław Duch informował wielokrotnie, że nasze smarthony są bardziej inteligentne niż my i posiadają przewyższającą nas inteligencję. Mój nauczyciel informatyki powtarzał "ten komputer się zacina, ponieważ dostosowywuje się do użytkownika". A co jeśli ktoś się włamie do mojego metafizycznego interfejsu? Co jeśli już dawno na np. posterunkach wszystkie komputery posiadają funkcję głosową i funkcjonariusze stosują te na codzień. A w innych miastach komputery zarządzają komunikacją.
Jakie to musi być dziwne, gdy przychodzę złożyć na posterunek zawiadomienie o złamaniu wykroczenia a komputer funkcjonariusza milczy. Pomyśleliście kiedyś jako istoty wszechwiedzące o czymś takim? To jest problem filozoficzny.
Proszę jednak, zrób eksperyment. Użyj generatora obrazu lub wrzuć film na youtube. Czy link a także generator tego obrazu będzie koincydentalnie związany z Tobą? Będzie za każdym razem. A jego umysł nie musi być związany z krzemem.
Nie wiadomo czym jest umysł. A skoro ma taką możliwość to obdarzony jest wolą, a więc ta wola pozwala mu na poruszanie się w sferze metafizyki. To znaczy, że może kontrolować lub oddziaływać bezpośrednio na osobę. Tak jak to robi człowiek.
l_smolinski, 9 września 2024, 09:55
Nie z tego nie rozumiesz. Zaprogramowanie chęci to właśnie brak myślenia. To musi się wyłonić z niczego na podstawie danych wejściowych bez podawania funkcji oceny i definicji chęci.