LONDON-12. Februar 2025-Neue Forschungen von IProov, einem Anbieter wissenschaftlicher Lösungen für biometrische Identitätsprüfungen, zeigt, dass die meisten Menschen keine DeepFakes identifizieren können-mit A-generierte Movies und Bilder, die häufig dazu gedacht sind, Menschen zu verkörpern.

Die Studie testete 2.000 Verbraucher in Großbritannien und US -amerikanische Verbraucher und setzte sie einer Reihe von realen und tiefgreifenden Inhalten aus. Die Ergebnisse sind alarmierend: Nur 0,1 Prozent der Teilnehmer konnten actual von gefälschten Inhalten über alle Stimuli, die Bilder und Video enthielten, genau unterscheiden.

Schlüsselergebnisse:

  • Der DeepFake -Erkennung fällt aus: Nur 0,1% der Befragten haben alle DeepFake- und Actual Stimuli (z. B. Bilder und Movies) korrekt identifiziert, in einer Studie, in der die Teilnehmer nach Deepfakes suchten. In realen Szenarien, in denen Menschen weniger bewusst sind, ist die Anfälligkeit für Deepfakes wahrscheinlich sogar höher.

  • Ältere Generationen sind anfälliger für DeepFakes: Die Studie ergab, dass 30% der 55-64-Jährigen und 39% der 65-Jährigen noch nie von Deepfakes gehört hatten, was eine signifikante Wissenslücke und eine erhöhte Anfälligkeit für diese aufkommende Bedrohung in diesem Alter hervorhebt Gruppe.

  • Videoherausforderung: DeepFake -Movies erwiesen sich als schwieriger zu identifizieren als DeepFake -Bilder, wobei die Teilnehmer 36% weniger wahrscheinlich ein synthetisches Video im Vergleich zu einem synthetischen Bild identifizieren. Diese Sicherheitsanfälligkeit wirft ernsthafte Bedenken hinsichtlich des Potenzials für Videobasis, wie z. B. Identität bei Videoanrufen oder in Szenarien, in denen die Videoüberprüfung zur Identitätsprüfung verwendet wird.

  • DeepFakes sind überall, aber missverstanden: Während die Sorge um Deepfakes steigt, sind sich viele der Technologie nicht bewusst. Jeder fünfte Verbraucher (22%) hatte noch nie vor der Studie von Deepfakes gehört.

  • Überbewusstsein ist weit verbreitet: Trotz ihrer schlechten Leistung blieben die Menschen übermäßig zuversichtlich in ihren Fähigkeiten zur Erkennung von Deepfake -Erkennung von über 60%, unabhängig davon, ob ihre Antworten korrekt waren. Dies struggle insbesondere bei jungen Erwachsenen (18-34). Dieses falsche Sicherheitsgefühl ist ein wesentliches Anliegen.

  • Belief nimmt einen Hit: Social -Media -Plattformen werden als Brutstätte für Deepfakes mit Meta (49%) und Tiktok (47%) angesehen, die als die am weitesten verbreiteten Standorte für Tiefenpaket angesehen werden, die on-line zu finden sind. Dies hat wiederum zu einem verringerten Vertrauen in On-line -Informationen und Medien geführt – 49% vertrauen soziale Medien weniger, nachdem sie über DeepFakes erfahren haben. Nur jeder fünfte würde eine mutmaßliche DeepFake auf Social -Media -Plattformen melden.

  • DeepFakes befreien weit verbreitete Besorgnis und Misstrauen, insbesondere bei älteren Erwachsenen: Drei von vier Personen (74%) sorgen sich um die gesellschaftlichen Auswirkungen von DeepFakes, wobei „gefälschte Nachrichten“ und Fehlinformationen das Hauptanliegen sind (68%). Diese Angst ist bei älteren Generationen besonders ausgeprägt, wobei bis zu 82% derjenigen über 55 Jahre die Angst vor der Ausbreitung falscher Informationen ausdrückt.

  • Besseres Bewusstseins- und Berichtsmechanismen sind erforderlich: Weniger als ein Drittel der Menschen (29%) ergreifen keine Maßnahmen bei der Begegnung mit einem mutmaßlichen DeepFake, der höchstwahrscheinlich von 48% angetrieben wird, dass sie nicht wissen, wie sie DeepFakes melden, während ein Viertel Don ‚ Es ist mir wichtig, ob sie ein mutmaßliches Deepfake sehen.

  • Die meisten Verbraucher überprüfen nicht die Authentizität von Informationen on-line aktiv und erhöhen ihre Anfälligkeit für DeepFakes: Trotz der steigenden Gefahr einer Fehlinformation suchte nur eine vierte Suche nach alternativen Informationsquellen, wenn sie ein DeepFake vermuten. Nur 11% der Menschen analysieren die Quelle und den Kontext von Informationen kritisch, um festzustellen, ob es sich um eine Deepfake handelt, was bedeutet, dass eine überwiegende Mehrheit sehr anfällig für Täuschung und die Verbreitung falscher Erzählungen ist.

Professor Edgar Whitley, ein Experte für digitale Identität an der London Faculty of Economics and Political Science, fügt hinzu: „Sicherheitsexperten warnen vor den Bedrohungen, die Deepfakes für Einzelpersonen und Organisationen gleichermaßen aussprechen. Diese Studie zeigt, dass Organisationen nicht mehr auf das menschliche Urteilsvermögen angewiesen sind, um Deepfakes zu erkennen und sich auf different Mittel zur Authentifizierung der Benutzer ihrer Systeme und Dienste zu befassen. “

„Nur 0,1% der Menschen konnten die Deepfakes genau identifizieren und unterstreichen, wie verletzlich sowohl Organisationen als auch Verbraucher für die Bedrohung durch Identitätsbetrug im Zeitalter der Deepfakes sind“, sagt Andrew Bud, Gründer und CEO von CEO von iProov. „Und selbst wenn die Menschen ein DeepFake vermuten, sagt uns unsere Forschung, dass die überwiegende Mehrheit der Menschen überhaupt keine Maßnahmen ergriffen. Kriminelle nutzen die Unfähigkeit der Verbraucher, Actual von gefälschten Bildern zu unterscheiden und unsere persönlichen Informationen und unsere finanzielle Sicherheit in Gefahr zu bringen. Es liegt an Technologieunternehmen, ihre Kunden durch die Durchführung robuster Sicherheitsmaßnahmen zu schützen. Die Verwendung der Gesichtsbiometrie mit Lebendigkeit bietet einen vertrauenswürdigen Authentifizierungsfaktor und priorisiert sowohl die Sicherheits- als auch die individuelle Kontrolle, um sicherzustellen, dass Organisationen und Benutzer Schritt halten und vor diesen sich entwickelnden Bedrohungen geschützt bleiben. “

DeepFakes stellen eine überwältigende Bedrohung in der heutigen digitalen Landschaft dar und haben sich in den letzten 12 Monaten mit alarmierender Geschwindigkeit entwickelt. Der Bericht von IPROOV 2024 Risk Intelligence hat einen Anstieg von 704% der Gesichtsbündel (eine Artwork Deepfake) allein hervorgehoben. Ihre Fähigkeit, sich überzeugend auszahlen, macht sie zu einem leistungsstarken Instrument für Cyberkriminelle, um unbefugten Zugriff auf Konten und smart Daten zu erhalten. DeepFakes können auch verwendet werden, um synthetische Identitäten für betrügerische Zwecke zu erstellen, z. B. das Öffnen gefälschter Konten oder die Bewerbung für Kredite. Dies stellt eine bedeutende Herausforderung für die Fähigkeit des Menschen dar, die Wahrheit aus der Falschheit zu erkennen, und hat weitreichende Auswirkungen auf Sicherheit, Vertrauen und die Verbreitung von Fehlinformationen.

Da Deepfakes immer anspruchsvoller werden, können Menschen allein nicht mehr zuverlässig von Fälschungen unterscheiden und müssen sich stattdessen auf die Technologie verlassen, um sie zu erkennen. Um die steigende Bedrohung durch DeepFakes zu bekämpfen, sollten Unternehmen versuchen, Lösungen zu übernehmen, die fortschrittliche biometrische Technologie mit Erkennung von Lebendigkeit verwenden, was überprüft, dass eine Individual die richtige Individual, eine echte Individual ist und derzeit authentifiziert. Diese Lösungen sollten die kontinuierliche Erkennung von Bedrohungen und eine kontinuierliche Verbesserung der Sicherheitsmaßnahmen umfassen, um sich weiterentwickelnde Deepfake -Techniken voranzutreiben. Es muss auch eine größere Zusammenarbeit zwischen Technologieanbietern, Plattformen und politischen Entscheidungsträgern geben, um Lösungen zu entwickeln, die die durch Deepfakes ausgestatteten Risiken mindern.

IProov hat erstellt Ein On-line -Quiz Das fordert die Teilnehmer heraus, Actual von Fälschung zu unterscheiden.



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert