czwartek, 24 kwiecień 2025 21:50

Uważaj na wyszukiwarki wykorzystujące sztuczną inteligencję

Czy wyszukiwarki AI są skuteczne? Czy wyszukiwarki AI są skuteczne? fot: pixabay

Nowe badanie przeprowadzone przez Tow Center for Digital Journalism na Uniwersytecie Columbia ujawnia niepokojące dane dotyczące dokładności narzędzi wyszukiwania opartych na sztucznej inteligencji. Choć coraz więcej firm wdraża te rozwiązania, mające zrewolucjonizować sposób, w jaki szukamy informacji w internecie, okazuje się, że wiele z nich generuje nieprawdziwe odpowiedzi.

Spis treści:

Grok Elona Muska zawodzi najbardziej

W badaniu przeanalizowano osiem różnych narzędzi wyszukiwania wykorzystujących sztuczną inteligencję. Wśród nich znalazły się: ChatGPT, Perplexity, Gemini firmy Google, Copilot od Microsoftu oraz chińskie narzędzie DeepSeek. Najgorszy wynik uzyskał Grok 3 Elona Muska, który aż w 94 procentach przypadków udzielał nieprawidłowych odpowiedzi. Dla porównania, ChatGPT miał 67 procent błędnych odpowiedzi, a Perplexity - 37 procent.

Model Grok 3 udzielał błędnych odpowiedzi w 94 procentach przypadków. - Ars Technica

Badacze zauważyli, że narzędzia te, mimo różnic w dokładności, mają wspólny problem - zamiast przyznać, że nie znają odpowiedzi, często generują zmyślone, ale przekonująco brzmiące informacje. To szczególnie niebezpieczne w kontekście pracy redakcyjnej lub przygotowywania materiałów informacyjnych, gdzie rzetelność danych ma kluczowe znaczenie.

Płatne wersje narzędzi wcale nie są lepsze

Wbrew oczekiwaniom, wersje premium analizowanych narzędzi nie były dokładniejsze od ich darmowych odpowiedników. W niektórych przypadkach wersje płatne wypadały nawet gorzej. To zaskakujące, ponieważ użytkownicy zakładają, że płacąc za usługę, otrzymują produkt lepszej jakości.

Kolejnym problemem były błędne cytowania. W teorii sztuczna inteligencja powinna podawać linki do źródeł, z których czerpie informacje, jednak w praktyce ponad połowa cytatów generowanych przez Gemini i Grok prowadziła do stron nieistniejących lub wtórnych wersji treści, a nie do oryginalnych publikacji.

Cytowania często prowadziły do błędnych lub nieistniejących adresów. - Ars Technica

Jak wyglądało badanie przeprowadzone przez Uniwersytet Columbia

Badacze nie sprawdzali ogólnej wiedzy narzędzi sztucznej inteligencji, lecz skupili się na dokładności informacji dotyczących konkretnych artykułów prasowych. W ramach eksperymentu wprowadzali fragmenty tekstów informacyjnych i zadawali pytania dotyczące ich treści. Oceniali, jak trafnie sztuczna inteligencja podsumowuje tekst, odtwarza tytuły oraz przedstawia szczegóły.

W 60 procentach przypadków wszystkie analizowane narzędzia podały błędne informacje. To oznacza, że nawet przy zadaniu opartym na istniejącym tekście, sztuczna inteligencja często nie potrafiła poprawnie zidentyfikować faktów.

Dlaczego firmy powinny być szczególnie ostrożne

Choć wyszukiwanie informacji przy pomocy sztucznej inteligencji może wydawać się wygodne i szybkie, brak dokładności tych narzędzi może prowadzić do poważnych konsekwencji. Jeśli pracownik przygotuje treść opartą na niezweryfikowanych danych, ryzyko błędów, a nawet kompromitacji wizerunkowej, jest bardzo realne.

Firmy wykorzystujące sztuczną inteligencję w celach redakcyjnych, marketingowych czy analitycznych powinny:

  • Zawsze weryfikować wyniki wyszukiwań z oryginalnymi źródłami.
  • Utrzymywać nadzór człowieka nad generowanymi treściami.
  • Unikać ślepego polegania na wynikach, nawet jeśli pochodzą z płatnej wersji narzędzia.
  • Szkoleniowo przygotować zespoły do korzystania z AI z zachowaniem zasad ostrożności.

To badanie pokazuje, że choć sztuczna inteligencja ma potencjał, nie może jeszcze zastąpić ludzkiego osądu. W obecnym stanie technologia ta powinna być używana jako narzędzie wspomagające, a nie jako jedyne źródło informacji.

Przypisy:

Grok to narzędzie oparte na sztucznej inteligencji stworzone przez firmę xAI, której właścicielem jest Elon Musk. Zintegrowane z platformą społecznościową X (dawniej Twitter), Grok ma na celu dostarczanie użytkownikom odpowiedzi w czasie rzeczywistym, bazując na bieżących wydarzeniach i danych z sieci. W odróżnieniu od wielu innych modeli AI, Grok został zaprojektowany z mniejszymi ograniczeniami moderacyjnymi, co według twórców ma pozwalać mu na większą swobodę w formułowaniu odpowiedzi.

Źródło: Inc