22 Länder und Tech-Giganten präsentieren gemeinsame Sicherheitsrichtlinien für KI.

Teilen

Das bekannte Sci-Fi-Szenario einer selbstbewussten KI, die sich gegen ihre Schöpfer wendet, bleibt trotz des aktuellen KI-Booms unrealistisch. Vielmehr liegen die Risiken in der fehlenden Neutralität, Objektivität und Manipulationssicherheit der KI-Systeme wie ChatGPT, deren Entwicklung und Training oft intransparent sind.

Das 'National Cyber Security Centre' Großbritanniens (NCSC) legte nun einen Katalog von Forderungen vor, dem sich 22 Länder sowie zahlreiche führende Technologieunternehmen wie Amazon, Google, IBM, Microsoft und OpenAI angeschlossen haben.

Ziele in Bezug auf Entwicklung, Veröffentlichung und Betrieb von künstlicher Intelligenz

Der Katalog beinhaltet vier Hauptziele, die für die Sicherheit der Systeme entscheidend sind. Für ein fundiertes Verständnis der Natur entwickelter KI-Anwendungen ist von Beginn an eine umfassende Dokumentation erforderlich, die den gesamten Produktlebenszyklus umfasst - von der Konzeption bis zum Betrieb und zur Pflege bestehender Angebote. Die Hauptelemente des Papiers sind die folgenden Säulen:

  • Sicheres Design
  • Entwicklung mit Sicherheitsfokus
  • Sicherheit in der Veröffentlichung
  • Sicherer Betrieb und Wartung

Unter sicherem Design versteht man beispielsweise die Durchführung von Risikoanalysen zu Beginn eines KI Projekts, um potenzielle Probleme der Nutzung zu identifizieren.  Eine detaillierte Dokumentation der verwendeten Daten, Modelle und Verschlüsselungsmethoden sowie regelmäßige Überprüfungen sind gemäß des Katalogs unerlässlich.

Das NCSC hebt außerdem die Wichtigkeit gesicherter Infrastrukturen und den Schutz der Sprachmodelle hervor, um externe Einflussnahme zu verhindern. Bei KI-Anwendungen ist die Erkennung von Manipulationen, die auf Informationsgewichtung abzielen, besonders schwierig. Daher ist ein kontinuierliches Monitoring der Eingaben und Ausgaben nach Ansicht der Autoren entscheidend.

Es wird deutlich, dass es aktuell mehrere Initiativen gibt, um KI regelkonform zu gestalten. Dies zeigt sich auch in der kürzlich veröffentlichten Bletchley Park Deklaration, die dieses Thema anspricht. Für mich sind dies klare Anzeichen dafür, dass sich die Hersteller der großen Risiken in diesem Bereich zunehmend bewusst werden – eine möglichst global implementierte Regulierung ist daher unerlässlich!

Weiterlesen

ISO/IEC 27001: Warum die Zertifizierung eine Investition und kein einmaliges Projekt ist

ISO/IEC 27001: Warum die Zertifizierung eine Investition und kein einmaliges Projekt ist

Die ISO/IEC 27001 ist seit Jahren der international anerkannte Standard für Informationssicherheits-Managementsysteme (ISMS). In den vergangenen Jahren ist die Nachfrage nach einer Zertifizierung spürbar gestiegen: ausgelöst durch Kundenanforderungen in Lieferketten, durch regulatorische Entwicklungen wie NIS2 und DORA, durch die zunehmende Bedrohungslage und durch den schlichten Umstand, dass ISO 27001

Von Michael Mrak
Warum der Einsatz von Palantir aus Sicht von Datenschutz, Recht und digitaler Souveränität nicht zu rechtfertigen ist

Warum der Einsatz von Palantir aus Sicht von Datenschutz, Recht und digitaler Souveränität nicht zu rechtfertigen ist

Ein faktenbasierter Blick auf die rechtlichen, technischen und geopolitischen Risiken des Einsatzes von Palantir-Software in europäischen Behörden und Unternehmen. Ausgangslage Palantir Technologies Inc. mit Sitz in Denver (USA) ist mit seinen Plattformen Gotham, Foundry und der Artificial Intelligence Platform (AIP) auf dem europäischen Markt zunehmend präsent. In Deutschland setzen die

Von Michael Mrak