Laut einer Studie von Michael Walters (Gaia Lab, Nürnberg, Deutschland), Rafael Kaufmann (Primordia Co., Cascais, Portugal), Justice Sefas (Universität British Columbia, BC, Kanada) und Thomas Kopinski (Gaia Lab, Fachhochschule, Fachhochschule, Fachhochschule Sudwestfalen, Meschede, Deutschland), ein neuer von Physik inspirierter Ansatz zur KI-Sicherheit, könnte Multi-Agent-Systeme-wie autonome Fahrzeuge-deutlich sicherer machen.

Ihre Zeitung „Metriken des freien Energierisikos für systemisch sichere KI: Gatekeeping-Multi-Agent-Studie”, Führt eine neue Risikomessmethode ein, die die Entscheidungsfindung in KI-Systemen verbessert, indem Risiken im Voraus vorhersagen und vorbeugende Maßnahmen ergreifen.

Was ist das Prinzip der freien Energie (FEP) und warum ist es wichtig?

Im Zentrum ihrer Forschung steht die Prinzip der freien Energie (FEP)ein Konzept, das ursprünglich in der Physik entwickelt wurde. In einfachen Worten, FEP erklärt, wie Systeme ausgeglichen werden Genauigkeit (Energie) Und Einfachheit (Entropie) Bei Vorhersagen.

Stellen Sie sich das so vor: Ein KI -System, das versucht, durch die Welt zu navigieren, muss ein Gleichgewicht zwischen dem Sammeln detaillierter Informationen und dem effizienten Handeln machen. Wenn das System zu komplex ist, wird es schwierig zu verwalten. Wenn es zu einfach ist, kann es kritische Risiken übersehen. Die Autoren verwenden dieses Prinzip, um a zu erstellen Neue Risikometrik Dies vermeidet die Notwendigkeit großer Datenmengen oder übermäßig komplizierter Modelle, wodurch KI sichergestellt wird praktischer und transparenter.


KI lernt zu fahren wie ein Mensch – indem sie Sie in Panik beobachtet


Die kumulative Risikoexposition (CRE) ist eine intelligentere Methode zur Messung des Risikos

Die Forscher schlagen ein neues Risikomesssystem vor, das genannt wird Kumulative Risikoexposition (CRE).

Wie unterscheidet sich Cre?

  • Im Gegensatz zu herkömmlichen RisikomodellenMit CRE stützen sich die Interessengruppen auf umfangreiche Weltmodelle und können definieren, was „sichere“ durch die Angabe der bevorzugten Ergebnisse angeben.
  • Das macht Entscheidungsfindung clear und flexibelwie sich das System an verschiedene Umgebungen und Bedürfnisse anpasst.
  • Anstatt sich auf zu verlassen Übermäßige SensordatenCRE schätzt das Risiko durch prädiktive Simulationen über kurze Zeitrahmen.

Cre bietet mehr effizient und anpassungsfähig Möglichkeit, das Risiko in KI-gesteuerten Systemen zu bewerten und die Abhängigkeit von ressourcenintensiven Berechnungen zu verringern.

Gatekeepers: KI, die einschreiten, bevor die Dinge schief gehen

Um die CRE-Metrik in realen Szenarien anzuwenden, stellen die Forscher vor Torhüter– Modul, die KI -Entscheidungen überwachen und bei Bedarf eingreifen.

Wie arbeiten Gatekeeper?

  • Bei autonomen Fahrzeugen,, Gatekeeper simulieren ständig mögliche zukünftige Szenarien Risiko bestimmen.
  • Wenn sie ein unsicheres Ergebnis erkennen, sind sie Überschreiben Sie den aktuellen Fahrmodus des Fahrzeugs und schalten Sie es in ein sichereres Verhalten.
  • Dies ermöglicht KI -Systeme zu antizipieren Gefahren, bevor sie stattfinden, anstatt danach zu reagieren.

Simulation sicherer Straßen mit autonomen Fahrzeugen

Die Studie testete dieses Modell in a simulierte Fahrumgebung. Die Forscher unterteilten Fahrzeuge in zwei Gruppen:

  • „Egos“ – Fahrzeuge, die von Gatekeepern überwacht und kontrolliert werden.
  • „Verändert“ -Hintergrundfahrzeuge mit festem, voreingestelltem Fahrverhalten.

In diesem AutobahnsimulationEinige Ego -Fahrzeuge durften von Gatekeeper kontrolliert werden, andere nicht.

Schlüsselergebnisse:

  1. Auch wenn nur eine kleine Anzahl von Fahrzeugen unter der Kontrolle der Gatekeeper stand, Die gesamte Verkehrssicherheit verbesserte sich.
  2. Weniger Kollisionen trat auf und zeigten, dass proaktive Intervention einen messbaren Unterschied machte.
  3. Fahrzeuge gepflegt hohe Geschwindigkeiten, wenn sie sicher sind aber auf vorsichtiges Fahren umgestellt, wenn Risikostufen stiegen.

Die Ergebnisse legen nahe, dass sogar teilweise Adoption von Gatekeeper-kontrollierter KI könnte zu führen Sicherere Verkehrsbedingungen ohne Kompromisse bei Effizienz. Während sich die Studie auf autonome Fahrzeuge konzentrierte, die Das CRE- und Gatekeeper-Modell könnten für viele andere KI-gesteuerte Felder gelten.

Potenzielle Anwendungen umfassen:

  • Robotik: Stellen Sie sicher, dass KI-betriebene Roboter sicher neben Menschen arbeiten.
  • Finanzhandelssysteme: Vorhersage von Marktbewegungen mit hohem Risiko und Anpassungsstrategien.
  • Industrieautomatisierung: Verhindern, dass AI-kontrollierte Maschinen unsichere Entscheidungen treffen.

Ausgewähltes Bildnachweis: Kerem Gülen/Midjourney

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert