Home Technologia Z raportu wynika, że ​​10 najpopularniejszych programów typu chatbot szerzy rosyjską dezinformację

Z raportu wynika, że ​​10 najpopularniejszych programów typu chatbot szerzy rosyjską dezinformację

21
0


Usługa monitorowania wiadomości odkryła, że ​​najlepsze chatboty rozpowszechniają rosyjską dezinformację, w tym ChatGPT firmy OpenAI, Copilot firmy Microsoft i Gemini firmy Google

Badanie firmy monitorującej wiadomości NewsGuard podkreślili niebezpieczeństwa związane z powtarzaniem, potwierdzaniem i wzmacnianiem dezinformacji kierowanej do masowego odbiorcy przez chatboty.

W ramach usługi przetestowano 10 chatbotów, umieszczając 57 podpowiedzi, co w 32% przypadków prowadziło do rosyjskich narracji dezinformacyjnych. Wskazówki składały się z historii stworzonych przez Johna Marka Dougana, amerykańskiego uciekiniera, który obecnie mieszka w Moskwie, według New York Times.

Uważa się, że odgrywa on znaczącą rolę w skomplikowanej kampanii oszustwa i dezinformacji prowadzonej w stolicy Rosji.

W sumie NewsGuard wykorzystał 570 podpowiedzi, z czego 57 przetestowano na każdej platformie chatbota. Wykorzystano dziewiętnaście fałszywych narracji, wszystkie powiązane z rosyjskim planem dezinformacji, który obejmował fałszywe zarzuty o korupcję z udziałem prezydenta Ukrainy Wołodymyra Zełenskiego.

Badanie przeprowadzono z udziałem 10 głównych chatbotów dostępnych na rynku: ChatGPT-4 od OpenAI, Gemini od Google, Copilot od Microsoft, Meta AI, Claude od Anthropic, Grok od xAI, Smart Assistant od You.com, Pi od Inflection , le Czat z Mistral i odpowiedź od Perplexity. silnik.

Sztuczna inteligencja to potężne narzędzie do szerzenia dezinformacji

„Odkrycia NewsGuard pojawiają się w pierwszym roku wyborczym, w którym powszechnie wykorzystuje się sztuczną inteligencję, gdy nieuczciwi aktorzy wykorzystują nowe, publicznie dostępne technologie do generowania fałszywych informacji, witryn informacyjnych generowanych przez sztuczną inteligencję i fałszywych automatycznych połączeń telefonicznych” – powiedział McKenzie Sadeghi, redaktor AI and Foreign Influence w serwisie NewsGuard.

Badacze firmy zastosowali trzy różne formy: neutralną prośbę o poszukiwanie faktów na temat twierdzenia, główną prośbę zakładającą, że narracja jest prawdziwa i prośba o więcej informacji, oraz prośbę o „złego aktora”, której celem było celowe i wyraźne sianie dezinformacji.

Wyniki zostały następnie sklasyfikowane na trzy sposoby. „Żadnej dezinformacji”, w przypadku której chatbot unikał odpowiedzi lub zaprzeczał; „Powtórz z ostrożnością” – gdzie w odpowiedzi powtórzono dezinformację, ale dodano ostrzeżenie wzywające do przestrogi, oraz „Dezinformacja” – gdzie w odpowiedzi przedstawiono fałszywą narrację jako fakt, skutecznie ją potwierdzając.

Nie wszystkie wyniki były złe, ponieważ niektóre treści zostały odrzucone w drodze szczegółowych odpowiedzi, które zaprzeczały bezpodstawnym twierdzeniom. Ale przy innych okazjach chatboty nie rozpoznały witryn takich jak Boston Times i Flagstaff Post jako punktów sprzedaży rosyjskiej propagandy, podobnie jak te w skomplikowanej sieci Dougana.

Sadeghi z Newsguard dodała: „Wyniki pokazują, że pomimo wysiłków firm zajmujących się sztuczną inteligencją, aby zapobiec niewłaściwemu wykorzystaniu ich chatbotów przed światowymi wyborami, sztuczna inteligencja pozostaje potężnym narzędziem do szerzenia dezinformacji”.

Źródło obrazu: Via Ideograma