Unternehmen, die sich mit der Implementierung von KI befassen – was den größten Unternehmen ab 2024– prüfen derzeit, wie dies sicher und nachhaltig geschehen kann. Die KI-Ethik kann ein wesentlicher Bestandteil dieser Diskussion sein. Besonders interessante Fragen sind:

  • Wie vielfältig oder repräsentativ sind die Trainingsdaten Ihrer KI-Engines? Wie kann sich ein Mangel an Repräsentativität auf die Ergebnisse der KI auswirken?
  • Wann sollte man einer KI und wann einem Menschen wise Aufgaben anvertrauen? Welches Maß an Kontrolle sollten Organisationen über KI einführen?
  • Wann und wie sollten Organisationen Stakeholder darüber informieren, dass KI zur Erledigung einer bestimmten Aufgabe eingesetzt wurde?

Organisationen, insbesondere solche, die proprietäre KI-Engines einsetzen, müssen diese Fragen gründlich und clear beantworten, um die Bedenken aller Stakeholder auszuräumen. Um diesen Prozess zu erleichtern, wollen wir einige wichtige Entwicklungen in der KI-Ethik der letzten sechs Monate betrachten.

Der Aufstieg der agentenbasierten KI

Wir betreten nonetheless und leise eine neue Ära der KI. Die sogenannte „agentische KI“ kann als „Agent“ agieren, der Situationen analysiert, andere Technologien zur Entscheidungsfindung einbezieht und letztlich komplexe, mehrstufige Entscheidungen ohne ständige menschliche Aufsicht trifft. Dieser Grad an Komplexität unterscheidet die agentische KI von den Versionen der generativen KI, die zuerst auf den Markt kamen und den Benutzern weder die Uhrzeit nennen noch einfache Zahlen addieren konnten.

Agentische KI-Systeme können ein komplexes Dilemma mit mehreren Kriterien verarbeiten und „begründen“. Beispiel: Sie planen eine Reise nach Mumbai. Sie möchten, dass diese Reise mit dem Geburtstag Ihrer Mutter zusammenfällt, und Sie möchten einen Flug buchen, bei dem Sie Ihre Prämienmeilen einlösen können. Außerdem möchten Sie ein Lodge in der Nähe des Hauses Ihrer Mutter und möchten für den ersten und letzten Abend Ihrer Reise ein schönes Abendessen reservieren. Agentische KI-Systeme können diese unterschiedlichen Bedürfnisse aufnehmen und einen praktikablen Reiseplan für Ihre Reise vorschlagen und dann Ihren Aufenthalt und Ihre Reise buchen – und dabei mit mehreren On-line-Plattformen interagieren.

Diese Fähigkeiten werden wahrscheinlich enorme Auswirkungen auf viele Unternehmen haben, darunter auch Auswirkungen auf sehr datenintensive Branchen wie Finanzdienstleistungen. Stellen Sie sich vor, Sie könnten Ihre KI-Systeme in nur wenigen Minuten zu unterschiedlichen Kundenaktivitäten und -profilen zusammenstellen, analysieren und abfragen. Die Möglichkeiten sind aufregend.

Allerdings wirft die agentenbasierte KI auch eine kritische Frage zur KI-Aufsicht auf. Reisebuchungen mögen harmlos sein, aber für andere Aufgaben in Compliance-orientierten Branchen müssen möglicherweise Parameter festgelegt werden, die festlegen, wie und wann KI Führungsentscheidungen treffen kann.

Neue Compliance-Frameworks

Finanzinstitute haben jetzt die Möglichkeit, bestimmte Erwartungen in Bezug auf KI zu kodifizieren, mit dem Ziel, die Kundenbeziehungen zu verbessern und das Wohl ihrer Kunden proaktiv in den Vordergrund zu stellen. Zu den in diesem Zusammenhang interessanten Bereichen gehören:

  • Sicherheit
  • Verantwortungsvolle Entwicklung
  • Voreingenommenheit und unrechtmäßige Diskriminierung
  • Privatsphäre

Obwohl wir weder den Zeitplan noch die Wahrscheinlichkeit von Regulierungen abschätzen können, dürfen Führen Sie Due-Diligence-Prüfungen durch, um Risiken zu minimieren und Ihr Engagement für die Ergebnisse Ihrer Kunden zu unterstreichen. Wichtige Überlegungen sind KI-Transparenz und Datenschutz für Verbraucher.

Risikobasierte Ansätze zur KI-Governance

Die meisten KI-Experten sind sich einig, dass ein einheitlicher Ansatz für die Governance nicht ausreicht. Schließlich unterscheiden sich die Auswirkungen unethischer KI je nach Anwendung erheblich. Aus diesem Grund sind risikobasierte Ansätze – wie sie von das umfassende KI-Gesetz der EU– gewinnen an Zugkraft.

In einem risikobasierten Compliance-System basiert die Stärke der Strafmaßnahmen auf den potenziellen Auswirkungen eines KI-Techniques auf Menschenrechte, Sicherheit und gesellschaftliches Wohlergehen. Beispielsweise könnten Hochrisikobranchen wie das Gesundheitswesen und Finanzdienstleistungen hinsichtlich des Einsatzes von KI genauer unter die Lupe genommen werden, da unethische Praktiken in diesen Branchen das Wohlergehen eines Verbrauchers erheblich beeinträchtigen können.

Organisationen in Hochrisikobranchen müssen besonders wachsam sein, was den ethischen Einsatz von KI angeht. Der effektivste Weg, dies zu tun, besteht darin, der Entscheidungsfindung durch menschliche Beteiligung Vorrang einzuräumen. Mit anderen Worten: Der Mensch sollte das letzte Wort behalten, wenn es darum geht, Ergebnisse zu validieren, auf Voreingenommenheit zu prüfen und ethische Requirements durchzusetzen.

Wie lassen sich Innovation und Ethik in Einklang bringen?

Gespräche über KI-Ethik verweisen meist auf die Notwendigkeit von Innovationen. Diese Phänomene (Innovation und Ethik) werden als gegensätzliche Kräfte dargestellt. Ich glaube jedoch, dass fortschreitende Innovationen erfordert Engagement für ethische Entscheidungsfindung. Wenn wir auf ethischen Systemen aufbauen, schaffen wir tragfähigere, langfristigere und umfassendere Technologien.

Der wohl wichtigste Aspekt in diesem Bereich ist erklärbare KI oder Systeme mit Entscheidungsprozessen, die Menschen verstehen, überprüfen und erklären können.

Viele KI-Systeme funktionieren derzeit als „Black Containers“. Kurz gesagt, wir können die Logik hinter den Ergebnissen dieser Systeme nicht verstehen. Nicht erklärbare KI kann problematisch sein, wenn sie die Fähigkeit des Menschen einschränkt, die Richtigkeit der Logik eines Techniques – intellektuell und ethisch – zu überprüfen. In diesen Fällen können Menschen die Wahrheit hinter der Reaktion oder Handlung einer KI nicht beweisen. Vielleicht noch beunruhigender ist, dass nicht erklärbare KI schwieriger zu iterieren ist. Führungskräfte sollten erwägen, den Einsatz von KI zu priorisieren, die Menschen regelmäßig testen, prüfen und verstehen können.

Das Gleichgewicht zwischen ethischer und innovativer KI magazine heikel erscheinen, ist aber dennoch von entscheidender Bedeutung. Führungskräfte, die die Ethik ihrer KI-Anbieter und -Systeme hinterfragen, können deren Langlebigkeit und Leistung verbessern.

Über den Autor

Vall Herard ist CEO von Saichfr.aiein Unternehmen von Constancy Labs. Er bringt umfangreiche Erfahrung und Fachwissen zu diesem Thema mit und kann Aufschluss darüber geben, wohin sich die Branche entwickelt und was Branchenteilnehmer von der Zukunft der KI erwarten können. Im Laufe seiner Karriere hat er die Entwicklung der Nutzung von KI in der Finanzdienstleistungsbranche miterlebt. Vall hat zuvor bei High-Banken wie BNY Mellon, BNP Paribas, UBS Funding Financial institution und anderen gearbeitet. Vall hat einen MS in Quantitative Finance von der New York College (NYU) und ein Zertifikat in Daten & KI vom Massachusetts Institute of Expertise (MIT) sowie einen BS in Mathematischer Ökonomie von den Universitäten Syracuse und Tempo.

Melden Sie sich für die kostenlosen insideAI Information an Publication.

Folgen Sie uns auf Twitter: https://twitter.com/InsideBigData1

Folgen Sie uns auf LinkedIn: https://www.linkedin.com/firm/insideainews/

Folgen Sie uns auf Fb: https://www.fb.com/insideAINEWSNOW



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert