Eksperyment MIT: czy AI jest dobrym graczem zespołowym?

Uczenie się przez głębokie wzmocnienie (ang. deep reinforcement learning) wygenerowało nadludzką sztuczną inteligencję w takich grach jak Go. Czy podobne techniki uczenia się mogą stworzyć doskonałego członka zespołu napędzanego AI do gier opartych na współpracy człowiek-maszyna? Na to pytanie próbowali odpowiedzieć naukowcy z MIT Lincoln Laboratory, weryfikując zdolność superhuman AI do współpracy w zespole.  

Badacze z MIT Lincoln Labolatory przeprowadzili eksperyment, weryfikujący jak zaawansowana AI sprawdza się jako członek drużyny. Wyzwaniem była nie rywalizacja, ale osiągnięcie wspólnego cel. Porównano ze sobą tzw. rules-based agents oraz superhuman AI, czyli taką formę sztucznej inteligencji, która m.in. wygrywa z ludźmi w grach logicznych (szachy, go).

Na czym polegał eksperyment?

Naukowcy z MIT Lincoln Laboratory próbowali dowiedzieć się, jak ludzie ocenią współpracę z zaawansowaną sztuczną inteligencję podczas kooperacyjnej gry karcianej Hanabi. W eksperymentach z pojedynczą ślepą próbą uczestnicy grali w dwie serie gry:

  • jedną z „agentem AI” (deep reinforcement learning) jako kolegą z drużyny,
  • drugą z systemem opartym na regułach, czyli botem zaprogramowanym ręcznie, mającym się zachowywać się w predefiniowany sposób.

Wyniki eksperymentu: który „pomocnik” był lepszym graczem?

Wyniki zaskoczyły badaczy. Okazało się, że ludzie nie ocenili pozytywnie agenta AI w roli kolegi z zespołu. Jego zachowanie, choć miało swój logiczny porządek, określono jako nieprzewidywalne, niewiarygodne i niegodne zaufania. Co ciekawe, nawet gdy drużyna osiągała dobre wyniki, negatywne nastawienie do sztucznej inteligencji nie zmieniało się. Natomiast, predefiniowany, system regułowy zyskał znacznie większą przychylność ze strony graczy i lepiej go oceniono.

Ross Allen, jeden z badaczy i współautor artykułu, tak tłumaczy wyniki eksperymentu:

Wyniki podkreślają istotną różnicę między tworzeniem sztucznej inteligencji, która działa obiektywnie dobrze, a tworzeniem sztucznej inteligencji, która wzbudza zaufanie i jest w subiektywny sposób preferowana przez ludzi. Pozornie może wydawać się, że pomiędzy tymi dwoma podejściami nie ma różnicy, jednak prezentowane badanie, udowadnia, że są to dwa oddzielne problemy, które musimy rozwikłać.

Wnioski z badania: na co warto zwrócić uwagę?

Naukowcy z MIT zwracają uwagę na fakt, że w przyszłości agenci AI mogą pracować z ludźmi nad prawdziwymi wyzwaniami. Podczas takiej współpracy pewien poziom zaufania do AI będzie warunkiem koniecznym dla jej powodzenia. Tzw. inteligencja zespołowa jest kolejną granicą w badaniach nad sztuczną inteligencją.

Źródło: https://news.mit.edu/2021/does-artificial-intelligence-play-well-others-1004