Da immer mehr postsekundäre Einrichtungen künstliche Intelligenz einsetzen, wird die Datensicherheit zu einem größeren Downside. Angesichts der zunehmenden Cyberangriffe im Bildungsbereich und der Tatsache, dass sich Lehrkräfte noch immer an diese ungewohnte Technologie gewöhnen müssen, ist das Risiko hoch. Was sollten Universitäten tun?
1. Befolgen Sie die 3-2-1-Backup-Regel
Cyberkriminalität ist nicht die einzige Bedrohung für postsekundäre Bildungseinrichtungen – Datenverlust durch Beschädigung, Stromausfall oder Festplattendefekte kommt häufig vor. Die 3-2-1-Regel besagt, dass Organisationen drei Backups auf zwei verschiedenen Medien haben müssen. Eines davon sollte außerhalb des Unternehmens aufbewahrt werden, um zu verhindern, dass Faktoren wie menschliches Versagen, Wetter und physische Schäden alle Kopien beeinträchtigen.
Da maschinelles Lernen und große Sprachmodelle anfällig für Cyberangriffe sind, sollten Universitätsadministratoren die Sicherung ihrer Trainingsdatensätze nach der 3-2-1-Regel priorisieren. Insbesondere sollten sie zunächst sicherstellen, dass die Informationen sauber und frei von Beschädigungen sind, bevor sie fortfahren. Andernfalls besteht das Risiko, dass sie kompromittierte Backups erstellen.
2. Inventarisieren Sie KI-Informationsressourcen
Die Menge der erstellten, kopierten, erfassten und verbrauchten Daten wirderreichen etwa 181 Zettabyte Bis 2025 wird die Datenmenge von nur 2 Zettabyte im Jahr 2010 um das 90-fache steigen. Viele Institutionen machen den Fehler, diese Fülle an Informationen als einen Vorteil und nicht als ein potenzielles Sicherheitsrisiko zu betrachten.
Je mehr Daten eine Universität speichert, desto leichter können Manipulationen, unbefugter Zugriff, Diebstahl und Beschädigung übersehen werden. Studenten-, Finanz- oder akademische Daten aus Sicherheitsgründen zu löschen, ist jedoch keine Choice. Die Inventarisierung von Informationsbeständen ist eine effektive Different, da sie dem IT-Workforce hilft, Umfang, Ausmaß und Risiko besser zu verstehen.
3. Setzen Sie Schutzmaßnahmen für Benutzerkonten ein
Ab 2023nur 13% der Welt verfügt über Datenschutzmaßnahmen. Universitäten sollten ernsthaft erwägen, diesem Pattern entgegenzuwirken, indem sie Sicherheitsmaßnahmen für die Konten der Studenten implementieren. Derzeit halten viele Passwörter und CAPTCHAs für ausreichende Schutzmaßnahmen. Wenn ein böswilliger Akteur diese Abwehrmaßnahmen überwindet – was mit einem Brute-Power-Angriff leicht möglich ist – könnte er Schaden anrichten.
Mit Techniken wie Immediate Engineering könnte ein Angreifer eine KI dazu zwingen, de-anonymisierte oder persönlich identifizierbare Informationen aus ihren Trainingsdaten preiszugeben. Wenn das Einzige, was zwischen ihnen und wertvollen Bildungsdaten steht, ein schwaches Passwort ist, werden sie nicht zögern. Für mehr Sicherheit sollten Universitätsadministratoren den Einsatz von Authentifizierungsmaßnahmen in Betracht ziehen.
Einmalpasswörter und Sicherheitsfragen halten Angreifer fern, selbst wenn sie ein Passwort mit Brute-Power-Methoden erzwingen oder gestohlene Anmeldeinformationen verwenden. Einer Studie zufolge hatten Konten mit aktivierter Multi-Faktor-Authentifizierung eineGeschätzte mittlere Kompromissrate von 0,0079 %während die Quote ohne 1,0071 % betrug – was bedeutet, dass dieses Software zu einer Risikominderung von 99,22 % führt.
4. Verwenden Sie das Prinzip der Datenminimierung
Nach dem Prinzip der Datenminimierung sollten Institutionen nur dann Informationen sammeln und speichern, wenn diese für einen bestimmten Anwendungsfall unmittelbar related sind. Die Einhaltung dieses Prinzips kannReduzieren Sie das Risiko von Datenschutzverletzungen erheblich durch Vereinfachung der Datenbankverwaltung und Minimierung der Anzahl von Werten, die ein böswilliger Akteur kompromittieren könnte.
Institutionen sollten dieses Prinzip auf ihre KI-Informationsressourcen anwenden. Neben der Verbesserung der Datensicherheit kann es auch den Prozess der Erkenntnisgewinnung optimieren – wenn man einer KI eine Fülle von nur am Rande relevanten Particulars zuführt, wird ihre Ausgabe oft eher verfälscht, als dass sie ihre Genauigkeit oder Relevanz erhöht.
5. Überprüfen Sie regelmäßig die Trainingsdatenquellen
Institutionen, die Modelle verwenden, die Informationen aus dem Web beziehen, sollten vorsichtig vorgehen. Angreifer können Datenvergiftungsangriffe starten, indem sie Fehlinformationen einschleusen, um unbeabsichtigtes Verhalten zu verursachen. Bei nicht kuratierten Datensätzen zeigt die Forschung, dassVergiftungsrate so niedrig wie 0,001 % kann zu Fehlklassifizierungen führen oder eine Hintertür für das Modell schaffen.
Dieses Ergebnis ist besorgniserregend, denn der Studie zufolge könnten Angreifer für nur 60 Greenback mindestens 0,01 % der LAION-400M- oder COYO-700M-Datensätze – beliebte groß angelegte Open-Supply-Optionen – vergiften. Anscheinend könnten sie abgelaufene Domänen oder Teile des Datensatzes relativ einfach kaufen. PubFig, VGG Face und Facescrub sind angeblich ebenfalls gefährdet.
Administratoren sollten ihr IT-Workforce anweisen, Schulungsquellen regelmäßig zu überprüfen. Selbst wenn sie nicht aus dem Web abrufen oder in Echtzeit aktualisiert werden, bleiben sie anfällig für andere Injektions- oder Manipulationsangriffe. Regelmäßige Überprüfungen können ihnen helfen, verdächtige Datenpunkte oder Domänen zu identifizieren und zu behandeln, wodurch der Schaden, den Angreifer anrichten können, minimiert wird.
6. Verwenden Sie KI-Instruments von namhaften Anbietern
Eine nicht unerhebliche Zahl von Universitäten hat Datenschutzverletzungen durch Dritte erlebt. Administratoren, die dies vermeiden möchten, sollten vorrangig einen seriösen KI-Anbieter auswählen. Wenn sie bereits einen solchen Anbieter nutzen, sollten sie erwägen, dessen vertragliche Vereinbarung zu überprüfen und regelmäßige Audits durchzuführen, um sicherzustellen, dass die Sicherheits- und Datenschutzstandards eingehalten werden.
Unabhängig davon, ob eine Universität einen AI-as-a-Service-Anbieter nutzt oder einen Drittanbieter mit der Entwicklung eines bestimmten Modells beauftragt hat, sollte sie ernsthaft darüber nachdenken, ihre Instruments zu überprüfen.60 % der Pädagogen nutzen KI Im Klassenzimmer ist der Markt so groß, dass zahlreiche unseriöse Unternehmen ihn betreten haben.
Datensicherheit sollte für KI-Benutzer Priorität haben
Universitätsadministratoren, die den Einsatz von KI-Instruments planen, sollten der Datensicherheit höchste Priorität einräumen, um die Privatsphäre und Sicherheit von Studierenden und Lehrkräften zu schützen. Obwohl der Prozess Zeit und Mühe kostet, kann eine frühzeitige Behandlung potenzieller Probleme die Implementierung handhabbarer machen und spätere Probleme verhindern.
Die Submit 6 Tipps zur Datensicherheit beim Einsatz von KI-Instruments im Hochschulbereich erschien zuerst auf Datenfloq.