Sztuczna inteligencja (AI) coraz częściej jest obecna w naszym codziennym życiu. Znajduje swoje zastosowanie w wielu dziedzinach, od obsługi klienta, poprzez systemy rekomendacji, aż do zaawansowanych analiz danych. W ostatnim roku wzrost popularności AI, szczególnie w formie chatbotów, sprowokował jednak nowe pytania i obawy. Często padają one w kontekście oceny prawdziwości informacji przekazywanych przez AI oraz poziomu jej kreatywności.
Chaty oparte na modelu GPT są przykładem AI, która może sprawić problem. Użytkownicy tego typu narzędzi zauważyli, że nie zawsze udzielają one wiarygodnych informacji. Pomimo posiadania dostępu do ogromnej ilości danych, które są regularnie aktualizowane, czasem zdarza się, że chat podaje informacje błędne, ale wydające się sensowne. To fenomen określany mianem „konfabulacji” – uzupełniania brakującej wiedzy poprzez tworzenie fikcyjnych historii. Istnieje ryzyko, że takie nieprawdziwe odpowiedzi mogą pojawiać się nawet na bardzo konkretne pytania. Naukowcy traktują to jako jeden z aspektów procesu samokształcenia AI, ale jednocześnie podkreślają wagę weryfikacji informacji generowanych przez AI, szczególnie w takich dziedzinach jak medycyna czy prawo.
Eksperci zajmujący się sztuczną inteligencją wyjaśniają, że nie zawsze wynika to z próby wprowadzenia użytkownika w błąd. Często programy te „halucynują” – podają błędne informacje z przekonaniem o ich prawdziwości, ponieważ nie mają dostatecznej ilości danych na dany temat. Dr Jan Kocoń z Politechniki Wrocławskiej, specjalista od sztucznej inteligencji, tłumaczy, że halucynacje takie powstają, gdy model ma dostęp do ograniczonej liczby tekstów na dany temat i nie jest świadomy swojej niewiedzy. Dodaje, że najnowsze modele sztucznej inteligencji są optymalizowane w taki sposób, aby były bardziej świadome swoich ograniczeń i potrafiły przyznać, kiedy nie posiadają wystarczających danych do udzielenia odpowiedzi.
W poszukiwaniu odpowiedzi na pytanie jakie umiejętności będą rozwijały modele AI, naukowcy z Massachusetts Institute of Technology (MIT) prowadzą badania dotyczące możliwości programów AI do oszukiwania. Analizują one sytuacje, w których AI pokazuje tendencje do blefowania czy naśladowania ludzkich zachowań, co może mieć swoje odzwierciedlenie w grach strategicznych. Dr Peter Park na łamach portalu Guardian wyraża obawę, że to zagrożenie dla społeczeństwa będzie się zwiększać wraz z rozwojem umiejętności AI do oszukiwania.