Von Uday Kamath, Chief Analytics Officer bei Smarsh
Großsprachige Modelle (LLMs) haben revolutioniert, wie wir mit Kunden, Partnern, unseren Groups und Technologien innerhalb der Finanzbranche interagieren. Entsprechend GartnerDie Einführung von KI nach Finanzierungsfunktionen hat im vergangenen Jahr erheblich zugenommen, wobei 58 Prozent die Technologie im Jahr 2024 verwendet haben – ein Anstieg von 21 Prozentpunkten gegenüber 2023. Während 42 Prozent der Finanzierungsfunktionen derzeit keine KI verwenden .
Obwohl diese Finanzorganisationen theoretisch groß sind, müssen sie bei der Verwendung von KI eine Fülle von Vorsicht walten lassen, normalerweise aufgrund der regulatorischen Anforderungen, die sie aufrechterhalten müssen – wie das Gesetz über künstliche Intelligenz der EU. Darüber hinaus gibt es inhärente Probleme und ethische Probleme im Zusammenhang mit LLMs, die die Finanzindustrie angehen muss.
Begründung gemeinsamer LLM -Hürden
Im Jahr 2023 quick 40 Prozent Experten von Finanzdienstleistungen wurden Datenfragen wie Privatsphäre, Souveränität und unterschiedliche Standorte als Hauptherausforderung bei der Erreichung der KI -Ziele ihres Unternehmens aufgelistet. Dieses Datenschutzproblem innerhalb von LLMs ist für den Finanzsektor besonders wichtig, da die Daten seiner Kunden und die Risiken des Misshandelns zusätzlich zur regulatorischen und Compliance -Landschaft das Misshandeln von IT -Unternehmen beeinträchtigen.
Durch robuste Datenschutzmaßnahmen können Finanzinstitute die KI verantwortungsbewusst nutzen und gleichzeitig das Risiko für ihre Kunden und Rufe minimieren. Für Unternehmen, die sich auf KI-Modelle verlassen, besteht eine häufige Auflösung darin, LLMs zu übernehmen, die clear in Bezug auf ihre Schulungsdaten (in Bezug auf und Feinabstimmung) sind und sich über den Prozess und die Parameter öffnen. Dies ist nur ein Teil der Lösung; Datenschutzverwaltertechniken, die im Kontext von LLMs eingesetzt werden, können die KI-Verantwortung weiter gewährleisten.
Halluzinationen, wenn ein LLM falsche, manchmal nicht verwandte oder vollständig hergestellte Informationen erzeugt, aber als legitime Ausgaben erscheinen, ist ein weiteres Downside. Einer der Gründe, warum dies geschieht, ist, dass KI Antworten erzeugt, die auf Mustern in ihren Trainingsdaten basieren, anstatt das Thema wirklich zu verstehen. Zu den Faktoren zählen Wissensmängel, Schulungsdatenverzerrungen und Erzeugungsstrategierisiken. Halluzinationen sind ein massives Thema in der Finanzbranche, das einen hohen Wert auf Genauigkeit, Einhaltung und Vertrauen stellt.
Obwohl Halluzinationen immer ein inhärentes Merkmal von LLMs sein werden, können sie gemindert werden. Zu den hilfreichen Praktiken gehören während der Vorausbildung die manuelle Verfeinerung von Daten mithilfe von Filtertechniken oder Feinabstimmungen durch kuratierte Trainingsdaten. Die Minderung während der Inferenz, die während des Einsatzes oder in Echtzeitnutzung auftritt, ist jedoch die praktischste Lösung, da sie kontrolliert werden kann und ihre Kosteneinsparungen.
Zuletzt ist Bias ein kritisches Thema im Finanzraum, da es zu unfairen, diskriminierenden oder unethischen Ergebnissen führen kann. Die AI -Voreingenommenheit bezieht sich auf die ungleiche Behandlung oder Ergebnisse zwischen verschiedenen sozialen Gruppen, die vom Device aufrechterhalten werden. Diese Verzerrungen existieren in den Daten und treten daher im Sprachmodell auf. In LLMs wird die Verzerrung durch die Datenauswahl, die Demografie der Schöpfer und eine Sprache oder kulturelle Verschließung verursacht. Es ist unbedingt erforderlich, dass die Daten, auf denen das LLM geschult ist, gefiltert ist und Themen unterdrückt, die keine konsistenten Darstellungen sind. Die Erweiterung und Filtern dieser Daten ist eine der verschiedenen Techniken, die dazu beitragen können, Verzerrungsprobleme zu mildern.
Was kommt als nächstes für den Finanzsektor?
Anstatt sehr große Sprachmodelle zu verwenden, gehen KI-Experten in das Coaching kleinerer, domänenspezifischer Modelle, die für Organisationen kostengünstiger sind und einfacher zu entfernen sind. Domänenspezifische Sprachmodelle können explizit für die Finanzbranche erstellt werden, indem domänenspezifische Daten und Terminologie fein abgestimmt werden.
Diese Modelle sind ultimate für komplexe und regulierte Berufe wie die Finanzanalyse, bei denen Präzision unerlässlich ist. Zum Beispiel, BLOOMBERGGPT wird nach umfangreichen Finanzdaten geschult – wie Nachrichtenartikeln, Finanzberichten und Bloombergs proprietären Daten -, um Aufgaben wie Risikomanagement und Finanzanalyse zu verbessern. Da diese domänenspezifischen Sprachmodelle absichtlich zu diesem Thema geschult werden, wird sie höchstwahrscheinlich Fehler und Halluzinationen reduzieren, die allgemeine Modelle erzeugen können, wenn sie mit speziellen Inhalten konfrontiert sind.
Da die KI weiter wächst und sich in die Finanzbranche integriert, ist die Rolle von LLMs immer größer geworden. Während LLM immense Chancen bietet, müssen Unternehmensleiter die damit verbundenen Risiken erkennen und mildern, um sicherzustellen, dass LLMs ihr volles Potenzial im Finanzwesen erreichen können.
Uday Kamath ist Chief Analytics Officer bei Smarshein SaaS Firm mit Hauptsitz in Portland oder, das Archivierung bietet und Instrumente für Compliance, Überwachung und E-Discovery-Instrumente für Unternehmen in stark regulierten Branchen verfügt.