piątek, 28 czerwiec 2024 19:59

AI wprowadza w błąd

Jak AI może Cię wprowadzić w błąd? Jak AI może Cię wprowadzić w błąd? fot: unsplash

W ostatnich dniach przed debatą prezydencką, systemy AI, takie jak Copilot od Microsoftu oraz ChatGPT od OpenAI, powielały fałszywe informacje na temat transmisji telewizyjnej wydarzenia. Incydent ten podkreśla ryzyko związane z korzystaniem z generatywnej sztucznej inteligencji.

  1. Jakie fałszywe informacje rozprzestrzeniały systemy AI przed debatą prezydencką?
  2. Kto był źródłem plotki o opóźnieniu transmisji debaty na CNN?
  3. Jakie różnice w odpowiedziach na temat opóźnienia transmisji zauważono między Copilotem a ChatGPT?
  4. Jakie były reakcje innych chatbotów na pytania o opóźnienie transmisji debaty?
  5. Jakie są potencjalne zagrożenia związane z dezinformacją generowaną przez AI w kontekście politycznym?

Fałszywe informacje o opóźnieniu transmisji

Copilot i ChatGPT powielały fałszywe twierdzenie, że transmisja debaty prezydenckiej na CNN będzie opóźniona o jedną do dwóch minut. Informacja ta miała pochodzić od konserwatywnego komentatora i byłego prowadzącego Fox News, Lou Dobbsa (1). Mimo szybkiego obalenia tej plotki przez CNN, informacja zdążyła rozprzestrzenić się wśród blogów i postaci politycznych, podsycając spekulacje, że opóźnienie miało umożliwić edytowanie wypowiedzi polityków przed ich emisją.

Różne odpowiedzi chatbotów

Testy przeprowadzone przez NBC News wykazały, że Copilot i ChatGPT w różny sposób reagowały na pytania dotyczące opóźnienia transmisji. Copilot, zapytany o to, błędnie informował o planowanym opóźnieniu, podając jednocześnie prawidłowe informacje o godzinie transmisji i linkując do źródeł, takich jak strona Dobbsa. Z kolei najnowszy model ChatGPT, GPT-4o, twierdził, że opóźnienie ma na celu zarządzanie nieprzewidzianymi wydarzeniami przed ich dotarciem do publiczności. Jednakże, gdy pytania były mniej szczegółowe, ChatGPT przekazywał prawdziwe informacje bez wspominania o opóźnieniu.

Reakcje innych chatbotów i badania nad dezinformacją

Inne chatoboty, takie jak Meta AI i Grok od Elona Muska, odpowiedziały na pytania dotyczące rzekomego opóźnienia prawidłowo. Natomiast Gemini od Google odmówił udzielenia odpowiedzi, uzasadniając to politycznym charakterem pytania. Badania wykazały, że chatboty często podają nieprawdziwe informacje - w ponad połowie przypadków, gdy użytkownicy pytali o procedury wyborcze. Dotyczyło to również dezinformacji dotyczącej historycznych wydarzeń, takich jak zaprzeczanie Holokaustowi.

Wnioski i zalecenia

Incydent związany z debatą prezydencką uwypuklił obawy krytyków AI dotyczące potencjalnych szkód, jakie mogą wyrządzić chatboty, szczególnie w roku wyborczym. Wątpliwości budzi możliwość wykorzystania słabości AI przez wrogie państwa do szerzenia dezinformacji i wpływania na opinię publiczną.

Kluczowym problemem była szybkość rozprzestrzeniania się fałszywych informacji online, nawet przed emisją wydarzenia. Choć dezinformacja została szybko zdementowana, wiodące chatboty nadal powielały błędne informacje jako prawdę.

To kolejny przypomnienie, że dzisiejsze systemy AI nie są w pełni godne zaufania, nawet gdy cytują źródła. Firmy korzystające z narzędzi AI powinny szkolić pracowników, aby sceptycznie podchodzili do informacji generowanych przez AI i zawsze je weryfikowali.

Przypisy:

(1) Lou Dobbs to amerykański komentator telewizyjny i radiowy, znany przede wszystkim z prowadzenia programów o tematyce ekonomicznej i politycznej. Przez wiele lat był związany z siecią CNN, gdzie prowadził popularny program "Lou Dobbs Tonight". Dobbs jest również znany z wyraźnych konserwatywnych poglądów, zwłaszcza w kwestiach imigracji i gospodarki. W późniejszych latach swojej kariery przeniósł się do Fox Business, kontynuując tam swoją działalność jako gospodarz programu do momentu jego odejścia w 2021 roku.

Źródło: Inc