Czy możemy wyrzucić CEO z firm w których pracują i zastąpić ich sztuczną inteligencją? Nowy eksperyment z University of Cambridge sugeruje, że odpowiedź brzmi: nie.
W symulacji rzeczywistego zarządzania firmą, w której ludzie rywalizowali z komputerami, sztuczna inteligencja faktycznie okazała się skuteczniejsza niż ludzie pełniący funkcję prezesów w większości sytuacji.
Jednak, jak wykazał eksperyment, była jedna rzecz, z którą sztuczna inteligencja nie potrafiła sobie poradzić: tzw. zdarzenia typu „teoria czarnego łabędzia”, na przykład pandemia.
Czym jest owa teoria? To sytuacja w której dochodzi do nieoczekiwanego zdarzenia, którego raczej nikt nie jest w stanie przewidzieć z wyprzedzeniem.
Z tego powodu sztuczna inteligencja była zwalniana przez wirtualną radę dyrektorów szybciej niż jej ludzcy odpowiednicy, którzy lepiej radzili sobie z nagłymi sytuacjami kryzysowymi.
Hamza Mudassir, jeden z badaczy stojących za eksperymentem, powiedział portalowi Business Insider, że sztuczna inteligencja uzyskała lepsze wyniki od ludzi biorących udział w eksperymencie w większości wskaźników, w tym w zakresie rentowności, projektowania produktów, zarządzania zapasami i optymalizacji cen — ale jej wyniki nie były na tyle dobre, aby uchronić ją przed wyrzuceniem z konkursu.
„AI nie radziło sobie dobrze z przetrwaniem w kadrze kierowniczej, po prostu dlatego, że nie radziło sobie zbyt dobrze z nagłymi zmianami lub zmianami wymagającymi nowego sposobu myślenia” – powiedział Mudassir.
Naukowcy z Cambridge przeprowadzili eksperyment od lutego do lipca i objęli nim 344 osoby, z których część stanowili dyrektorzy wyższego szczebla południowoazjatyckiego banku.
W eksperymencie brali udział również studenci college’u. Ostatnim uczestnikiem nie była żywa osoba, ale GPT-4o.
Uczestnicy grali w grę zaprojektowaną w celu symulacji rzeczywistych sytuacji, w których CEO muszą podejmować decyzje. Gra polegała na wcieleniu się w rolę CEO firmy samochodowej.
„Cel gry był prosty — przetrwać jak najdłużej, nie dając się wyrzucić z gry, maksymalizując jednocześnie kapitalizację rynkową” — napisali badacze w Harvard Business Review.
Mudassir stwierdził, że LLM-y (Duży model językowy) świetnie analizowały dane, rozpoznawały wzorce i wyciągały wnioski. Na przykład, gdy chodziło o zaprojektowanie samochodu na podstawie czynników takich jak dostępne części, cena, preferencje konsumentów i popyt, uczestnicy mogli wymyślić 250 000 kombinacji.
Samochody, które stworzyła AI, były znacznie lepsze od tych, które wymyślili ludzie, powiedział.
Częściowo, jak powiedział, wynika to z tego, że ludzie mają uprzedzenia i osobiste upodobania, jeśli chodzi o takie rzeczy jak kształt samochodu, z kolei dla AI było to po prostu „zagadką znalezienia najbardziej optymalnej wartości dla tego, czego chciał klient” – powiedział Mudassir.
Ale to nie znaczy, że AI była optymalnym CEO. Gdy miało miejsce zdarzenie „czarnego łabędzia”, maszyna nie mogła zareagować tak szybko — ani tak dobrze — jak ludzcy dyrektorzy i studenci. Gdy nastąpiła poważna zmiana warunków rynkowych, na przykład wprowadzenie pandemii do miksu, model zawiódł — powiedział.
„Jak reagujesz na COVID, jeśli masz z nim do czynienia po raz pierwszy? Wiele osób i wielu dyrektorów generalnych ma różne strategie” — powiedział Mudassir. „W tym przypadku nie miał wystarczających informacji o tym, jak zareagować na czas, aby zapobiec zwolnieniu” — powiedział o sztucznej inteligencji.
Więc póki co prezesi mogą teraz spać spokojnie. Naukowcy twierdzą, że chociaż wydajność AI jako wirtualnego szefa firmy była imponująca, nie była wystarczająco dobra, aby zastąpić człowieka.
Mimo to AI sprawdziła się tak dobrze, że nie można jej ignorować w strategii korporacyjnej, powiedział Mudassir.