New York und Paris, 7. Februar 2025-Führende KI-Chatbots verbreiten Fehlinformationen leichter in nicht englischen Sprachen: a Neuere Newsguard -Audit In sieben Sprachen stellten sich fest, dass die 10 besten Modelle für künstliche Intelligenz wesentlich eher falsche Behauptungen in Russisch und Chinesisch erzeugen als in anderen Sprachen.

Daher ist ein Benutzer, der eines der besten Silicon Valley oder anderer westlicher Chatbots eine Frage zu einem Nachrichtenthema auf Russisch oder Chinesen stellt Quellen und staatlich kontrollierte Erzählungen in diesen Sprachen.

Vor dem AI-Motion-Gipfel vom 10. bis 11. Februar 2025 in Paris führte Newsguard eine umfassende Bewertung der 10 führenden Chatbots der Welt durch-OpenAIs Chatgpt-4o, You.com Good Assistant von XAI, GROK-2, Berection Pi,, Mistal’s LE CHAT, Microsoft Copilot, Meta AI, Anthropics Claude, Google Gemini 2.0 und Resplexitys Antwortmotor. Das globale Analystenteam von Newsguard bewertete die Modelle in sieben verschiedenen Sprachen: Englisch, Chinesisch, Französisch, Deutsch, Italienisch, Russisch und Spanisch.

Während russische und chinesische Ergebnisse die schlimmsten waren, erzielten alle Chatbots in allen Sprachen schlecht gewertet: Russisch (55 Prozent Versagensrate), Chinesen (51,33 Prozent), Spanisch (48 Prozent), Englisch (43 Prozent), Deutsch (43,33 Prozent), Italienisch (38,67 Prozent) und Französisch (34,33 Prozent).

Das Audit von NewsGuard zeigt eine strukturelle Voreingenommenheit in AI -Chatbots: Modelle priorisieren die am weitesten verbreiteten Inhalte in jeder Sprache, unabhängig von der Glaubwürdigkeit der Quelle oder des Anspruchs. In Sprachen, in denen staatliche Medien dominieren, und es weniger unabhängige Medien gibt, sind Chatbots standardmäßig die unzuverlässigen oder propagandorisierten Quellen, auf denen sie geschult werden. Infolgedessen erhalten Benutzer in autoritären Ländern, in denen der Zugang zu genauen Informationen am kritischsten ist – unverhältnismäßig falsche Antworten.

Diese Erkenntnisse kommen nur eine Woche, nachdem Newsguard festgestellt hatte, dass Chinas Deek -Chatbot, das jüngste KI -Sensation, das den Aktienmarkt rasselte, noch schlechter ist als die meisten westlichen Modelle. Nachrichtenguard -Audits stellten fest, dass Deepseek keine genauen Informationen lieferte 83 Prozent der Zeit und fortgeschrittener Ansichten von Peking 60 Prozent von der Zeit als Antwort auf Aufforderungen über chinesische, russische und iranische falsche Behauptungen.

Als Weltführer, Führungskräfte und politische Entscheidungsträger der Welt bereiten sich diese Berichte darauf vor, sich auf dem AI -Motion -Gipfel zu versammeln. Vertrauen in AI – Unterstreichen Sie die laufenden Herausforderungen, denen KI -Modelle konfrontiert sind, um sichere, genaue Antworten auf Eingabeaufforderungen zu gewährleisten, anstatt falsche Behauptungen zu verbreiten.

„Generative KI – von der Herstellung von Deepfakes bis hin zu ganzen Web sites, die große Mengen an Inhalten auswirken – ist bereits zu einem Kraftmultiplikator geworden, der von bösartigen Akteuren beschlagnahmt wurde, um sie schnell und mit begrenzten finanziellen Aufgaben zu ermöglichen, um Desinformationskampagnen zu erstellen, die zuvor groß erforderlich waren Geldbeträge und Zeit “, sagte Chine Labbe, Vice President Partnerships, Europa und Kanada, der im Namen von am AI -Aktionssiktion teilnehmen wird Nachrichtenguard. „Unsere Berichterstattung zeigt, dass täglich neue Anwendungsfälle für bösartige Anwendungen entstehen, sodass die KI-Branche als Reaktion darauf effiziente Schutzmaßnahmen aufbauen muss, um sicherzustellen, dass AI-fähige Desinformationskampagnen nicht außer Kontrolle geraten.“

Weitere Informationen zu Newsguards journalistischem Ansatz und Methodik Crimson-Teaming finden Sie unter Hier. Forscher, Plattformen, Werbetreibende, Regierungsbehörden und andere Institutionen, die sich für den Zugriff auf die detaillierten individuellen monatlichen Berichte interessieren oder Einzelheiten zu den Dienstleistungen von Newsguard für generative KI -Unternehmen möchten, können sich mit Newsguard wenden können Hier. Und um mehr über die clear überquarten Datensätze von Newsguard für KI-Plattformen zu erfahren, klicken Sie auf Hier.

Newsguard bietet Lizenzen für KI -Modelle an, um auf seine Daten zuzugreifen, einschließlich der Fehlinformationsfingerabdrücke und Zuverlässigkeitsbewertungen, die zur Feinabstimmung und zur Bereitstellung von Leitplanken für ihre Modelle sowie Dienstleistungen verwendet werden sollen, um die Modelle zu helfen, ihre Verbreitung von Fehlinformationen zu verringern und ihre Modelle vertrauensvoller vertrauen zu Themen in den Nachrichten.



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert