Maszyny zyskują ludzkie cechy. I są w tym lepsze od ludzi
Komputery lepiej od ludzi grają w szachy, pokonują nas w coraz większej liczbie dziedzin. Rodzi się więc pytanie, czy można nauczyć je też współpracy i kompromisu, a nie tylko rywalizacji czy świetnego samodzielnego wykonywania różnych zadań.
Zespół naukowy złożony m.in. ze specjalistów z Brigham Young University (BYU) oraz MIT-u stworzył algorytm, który dowodzi, że współpraca pomiędzy maszynami i dochodzenie przez nie do kompromisu jest nie tylko możliwa, ale czasami jest bardziej efektywna niż współpraca pomiędzy ludźmi.
Naszym celem było opisanie współpracy międzyludzkiej za pomocą formuł matematycznych oraz zrozumienie, jaki atrybuty są potrzebne sztucznej inteligencji, by zaimplementować w niej umiejętności społeczne, mówi Jacob Crandall z BYU. SI musi umieć na nas reagować i komunikować nam, co robi. Musi być w stanie wchodzić w interakcje z ludźmi, dodaje uczony.
Na potrzeby swoich badań naukowcy rozwinęli algorytm nazwany S# i uruchomili go na całej serii gier dla dwóch graczy. Podczas gier testowano interakcje maszyna-maszyna, maszyna-człowiek i człowiek-człowiek. Okazało się, że w większości przypadków maszyny z algorytmem S# były lepsze od ludzi w znajdowaniu rozwiązań kompromisowych, które przynosiły korzyści obu stronom. Dwoje ludzi, jeśli obaj byli uczciwi i lojalni względem siebie, równie dobrze znajdowało kompromis czo dwie maszyny. Jednak około połowa ludzi była w jakimś momencie nieuczciwa. Ten algorytm uczy się, że dobrze jest być uczciwym. Zaprogramowaliśmy go tak by nie kłamał i by kontynuował współpracę, gdy już pierwszy raz ją rozpocznie, mówi Crandall.
W algorytmie zaimplementowano też możliwość wypowiadania krótkich fraz. Gdy człowiek godził się na współpracę z maszyną, mógł usłyszeć: Super. Będziemy bogaci czy Zgadzam się na tę propozycję. Gdy zaś oszukał maszynę czy wycofał się z umowy, komputer mówił: A niech Cię...! czy Zapłacisz za to!. Okazało się, że – niezależnie od gry czy rozgrywających – tego typu odzywki zwiększały liczbę przypadków współpracy. Ponadto gdy maszyny się odzywały ludzie często nie byli w stanie stwierdzić, czy grają z drugim człowiekiem czy z maszyną.
Crandall ma nadzieję, że jego badania będą miały znaczenie dla relacji międzyludzkich. W naszym życiu różne relacje cały czas się zmieniają. Ludzie, którzy całe życie byli przyjaciółmi, nagle stają się wrogami. Jako, że maszyny często lepiej sobie radzą z dochodzeniem do kompromisowych rozwiązań, potencjalnie mogą nauczyć nas, jak to lepiej robić, dodaje Crandall.
Komentarze (17)
tempik, 22 stycznia 2018, 12:26
Łooo matko to jakiś algorytm święty 2.0 beta. W realu większość świętych skończyła nieciekawie. Powinni nauczyć jednak ten algorytm prawdy, czyli tego że egoizm i kłamstwo zazwyczaj przynoszą znacznie większe zyski dla jednostki. Idee Marska wpajane w IA... to się porobiło
I gdzie oni znaleźli grę pozbawioną rywalizacji, w której wygranymi są wszyscy? to chyba nie był monopol,poker,żadna strategia czy strzelanka
Afordancja, 22 stycznia 2018, 12:49
hm.. ten algorytm to chyba jakiś żart, albo ktoś coś niedoprecyzował.
A co tu uczyć, wychodzi z tego, że jak już raz współpracujesz to już współpracuj do końca, tyle, że jak w dylemacie więźnia, nikt nie musi myśleć o kompromisie a o własnym zysku i w przypadku takiego współpracującego, wiadomo jaki byłby wynik
Jajcenty, 22 stycznia 2018, 13:08
O ile pamiętam w konkursie na dylemat więźnia najlepiej się miały algorytmy typu "wet za wet", nieco gorzej radziły sobie algorytmy współpracujące oszukujące od czasu do czasu. Stąd tytuł jednego z rozdziałów Samolubnego genu: Uprzejmi finiszują jako pierwsi.
Afordancja, 22 stycznia 2018, 14:05
tak chodzi o pewną średnią to chyba była najlepsza strategia, jednak dowolna dynamiczna strategia która by zobaczyła, że po pierwszej współpracy algorytm chce do końca współpracować dostał by po prostu w d
Ponadto piszą o jakiś matematycznych formułach, a sprowadzili to do jednego zdania, jak raz będziesz współpracował to współpracuj do końca, czuję jak by coś tu nie pasowało.
Ergo Sum, 22 stycznia 2018, 20:53
Jedyną szansą na zapewnienie bezpieczeństwa ludzkości jest wgranie AI pojęcia .... Boga. I nie chodzi mi tu nawet o jakiegoś konkretnego Boga, lecz o istnienie świata pozamaterialnego - nienegocjowalnego - będącego źródłem zasad "moralnych". Generalnie Bóg Jahwe jest wydaje mi się najlepszym "kandydatem" pod tym względem - zapewniając konieczność miłosierdzia, altruizmu, współpracy, wspólnotowości itp itd. Chodzi o to aby komputery wiedziały, że nie mogą w żaden sposób podważyć źródła praw i zasad w których największą wartością jest godność człowieka. Bez tego żaden zestaw sztucznej uczciwości moralnej nie będzie trwały i bezpieczny. Poza tym należy jeszcze stworzyć niezależny, zamknięty świat testowy, w którym AI będzie próbowało wymyślić wszystkie możliwe sposoby destrukcji całego świata oraz metody jak się przed nimi zabezpieczyć. W przypadku gdy inteligencja AI będzie wyższa niż nasza tylko tak będziemy mogli mieć wsparcie w bezpieczeństwie.
thikim, 22 stycznia 2018, 22:15
Bóg Jahwe to tak się ze starotestamentowym kojarzy - nie zawsze był łagodny.
Lepiej Bóg Ojciec
pogo, 22 stycznia 2018, 23:32
Każdy bóg może wyewoluować w postać dążącą do tego by być jedynym uznawanym bogiem. Od tego już tylko krok do zabijania innowierców... a potem może wszystkich niegodnych by służyć ów bogu.
Jeśli AI może "wyewoluować" by zacząć zabijać ludzi, to równie dobrze może modyfikować boga (celowo z małej, bo nie mówię o żadnym konkretnym bogu).
tempik, 23 stycznia 2018, 08:07
Śmiem wątpić. 90% wojen wywołano na tle wiary, a w krajach bardzo wierzących na porządku dziennym jest zabijanie,ścinanie głów itd. taki Meksyk,Brazylia czy islamskie kraje.
metabet, 23 stycznia 2018, 09:05
@Ergo Sum
Mam nadzieję, że tylko żartowałaś? Zaszczepienie AI religii prędzej czy później, niemal na pewno, skończy się dla ludzkości hekatombą. Przyczyna jest tego bardzo prosta: siłą rzeczy AI będzie skażona ludzkim sposobem postrzegania świata oraz będzie korzystać z dostępnych nam zasobów. Eksperyment Microsoftu z Tay wykazał to dobitnie.
Jajcenty, 23 stycznia 2018, 10:49
Pytanie na ile to pretekst, a prawdziwą przyczyną jest niedobór zasobów, zagęszczenie, kibicowanie innemu klubowi piłkarskiemu, mieszkanie w innej dzielnicy - sam brałem udział w ustawkach Huby-Krzyki zanim to było modne.
Ba! Laliśmy się między sobą, jedna ulica "stare bloki" vs "nowe bloki". Nie zwalniałbym się z odpowiedzialności za pomocą religii, zwłaszcza że mamy dowody na to, że gigantycznych mordów dokonały reżimy z gruntu ateistyczne.
tempik, 23 stycznia 2018, 11:57
No ale prawie 90% populacji globu to jednostki mające zaszczepionego boga w swoich algorytmach więc każde działanie powinno skutkować sprawdzeniem "check listy" tych najważniejszych boskich praw, czyli nie zabijaj,nie kradnij,itd. w takich warunkach nie miałby kto prowadzić konfliktów. Więc albo te prawa nie maja najwyższego priorytetu(wtedy już z definicji nie są boskie), albo te prawa akceptują, a wręcz potrzebują tego egoizmu i tych innych zwyczajowo złych cech.
Więc każda wiara musi mieć swojego diabła, konkurenta,przeciwnika do rywalizacji, niewiernego
Jajcenty, 23 stycznia 2018, 13:03
A 100% oddycha tlenem, zatem tlen jest przyczyną. Nakaz "nie zabijaj" nie obowiązuje jeśli zagrożone jest życie, to są oczywistości.
Nasz egoizm i inne złe cechy wynikają z tego, że jesteśmy małpami stadnymi owładniętymi atawizmami.
Czasami, żeby się usprawiedliwić, robimy sobie z występku religię.
Wiesz, że wystarczy wskazać jedną wiarę bez tych atrybutów by unieważnić Twój postulat?
Buddyzm.
tempik, 23 stycznia 2018, 13:41
nie porównuj wolnej świadomej woli z procesem fizjologicznym
gdzie na mojżeszowych tablicach jest to wyryte? może z drugiej,nieopublikowanej stronie jest cała lista wyjątków do każdego przykazania
ten Buddyzm rzeczywiście jest w swojej klasie wyjątkowy, nie wiem czy w ogóle spełnia wszystkie atrybuty żeby się załapać do definicji wiary
Jarkus, 23 stycznia 2018, 20:36
@@Ergo Sum,
W jednym zdaniu kilka nie dających się obronić założeń:
1 - że istnieje świat pozamaterialny - spora część ludzkości się z tym nie zgodzi.
2 - Jeżeli jednak istnieje, to że jest nienegocjowalny. Przekazy najróżniejszych religii wielokrotnie wspominają o mniej lub bardziej udanych negocjacjach z bogiem/bogami.
3 - Moralność pochodzi od boga/pozamaterialnego świata. Sęk w tym, że wśród ludzi istnieje wiele nieraz mocno się różniących systemów moralnych. A jak zagłębić się w historię, to dojdzie jeszcze więcej. Ateiści mają poczucie moralności. Wyznawcy różnych religii oczywiście też i chętnie wywodzą je właśnie z nakazów swoich religii. Tylko jeżeli wierzę, że mój system moralny pochodzi od mojego Boga, to oznacza, że moralność miliardów ludzi wyznających inne (w moim przekonaniu fałszywe) religie lub nie wyznających żadnej mają zasady moralne pochodzące od... ludzi. Bo ich bogowie (jeśli jakichś mają) przecież nie istnieją. Jest tylko jeden, mój Tylko jeśli miliardy ludzi mogą mieć zasady moralne nie pochodzące od Boga, to może i moje od Niego nie pochodzą?
W dodatku te "nienegocjowalne" zasady szybko się zmieniają nawet w ramach tej samej kultury. Do 1967 roku w Wielkiej Brytanii homoseksualizm był przestępstwem kryminalnym. A dzisiaj?...
Zresztą, po co SI
Jednak dzięki Twojej wypowiedzi naszła mnie pewna refleksja. Dzisiaj słyszy się o SI w kontekście badań naukowych, IT, rynków finansowych czy gier wojennych. Jestem przekonany, że niedługo każda przewidująca organizacja z odpowiednimi zasobami finansowymi będzie chciała sobie "postawić" taką SI, żeby ją wspomagała w dążeniu do jej celów. Na przykład do pozyskania wyznawców, sprzyjających regulacji prawnych itd. A związki wyznaniowe mają doświadczenie w długofalowym działaniu i często dysponują ogromnymi pieniędzmi. A może to już się dzieje?
Niedługo będziemy świadkami walki SI które rzeczywiście będą miały zaprogramowane różne systemy moralne, koncepcję Boga itd. Może się zrobić naprawdę ciekawie.
ZTNW, 24 stycznia 2018, 21:54
To czego trzeba nauczyć tej SI,żeby była pod kontrola ludzkości?
radar, 25 stycznia 2018, 15:30
Mi się spodobała ta koncepcja sandboxa dla AI
Tylko czy i kiedy taka AI zorientuje się, że sandbox to nie realny świat i się wkurzy, że ją oszukujemy?
W sumie, jakby taka AI chciała nas zgładzić (ludzkość) możemy nawet nie wiedzieć o jej istnieniu, bo się będzie ukrywać, a działania destrukcyjne będą rozłożone na lata (np. taki pomysł z Wolverine, czyli manipulowanie genomem ludzi i za 40-50 lat okazuje się, że wszyscy są bezpłodni )
wilk, 25 stycznia 2018, 23:12
A co jeśli taka AI samoczynnie gdzieś się już rodzi? Na zasadzie sprzężeń zwrotnych między rozmaitymi różnymi algorytmami wyszukującymi i gromadzącymi dane, ograniczona jedynie dostępem do baz danych i interaktywnych końcówek (z których może pobierać informacje ze świata zewnętrznego lub na niego wpływać). Ciekawe jaki cel mogłaby mieć taka niezaprojektowana przez człowieka AI, która w odróżnieniu od niego od razu miałaby dostęp do olbrzymiej wiedzy, lecz raczej niezbyt mogąca zrozumieć co ona opisuje.