Künstliche Intelligenz: Sicherheits-Prüfungen von KI-Systemen
Sicherheit von Künstlicher Intelligenz: KI-Technologien in Form von maschinellem Lernen durchdringen zunehmend alle Lebensbereiche unseres Alltags. Das bedeutet gleichzeitig: Die Risiken durch fehlerhafte KI-Systeme, Datenmissbrauch oder Cyberangriffe steigen und IT-Sicherheit kommt auch – und vor allem – im Bereich von künstlicher Intelligenz eine entscheidende Bedeutung zu.
Hier knüpfen wir an und prüfen die Sicherheit und Robustheit von künstlicher Intelligenz. Dazu ziehen wir ein eigens entwickeltes Prüfverfahren heran, das eine quantitative Bewertung der Robustheit und Stabilität von KI-Algorithmen ermöglicht. Auf diese Weise unterstützen wir Hersteller dabei, die Sicherheit ihrer KI-Technologien zu erhöhen und objektiv nachzuweisen.
Eine unabhängige Prüfung von KI-Systemen wird auch innerhalb der Bevölkerung zunehmend gefordert. Das machen die Ergebnisse einer durch den VdTÜV durchgeführten Studie zur Sicherheit von Künstlicher Intelligenz deutlich:




Unsere Vision: KI-Technologien robuster, transparenter und sicherer machen
Uns treibt die Idee an, in einer Gesellschaft zu leben, die von IT-sicheren, stabilen und transparenteren KI-Technologien profitiert. Daher möchten wir durch entsprechende Prüfungen und Zertifizierungen dafür Sorge tragen, Vertrauen in KI-Technologien zu schaffen und mögliche Vorbehalte zu entkräften.
Um dieses Ziel zu erreichen, entwickeln wir aktuell das passende Werkzeug: Ein Framework, das die Robustheit und Stabilität von künstlicher Intelligenz mithilfe spezieller Tests messbar macht.
» Unsere Vision ist es, KI-Lösungen mithilfe eines neuen innovativen Prüfverfahrens transparenter, vergleichbarer und sicherer zu machen.«
– Dirk Kretzschmar, Geschäftsführer der TÜV Informationstechnik GmbH
Unser Ansatz: Prüfung von KI-Algorithmen
Der Erfolg von KI-Systemen basiert auf Algorithmen, deren Verhalten nicht mehr programmiert, sondern vielmehr "antrainiert" wird. Dadurch sind sie in der Lage, weitgehend autonom zu agieren und auch in unbekannten Situationen Entscheidungen zu treffen.
Jedoch ist künstliche Intelligenz nicht nur "smart", sondern auch eine "Black Box", deren Zuverlässigkeit und Verhalten weitgehend unbekannt ist.
Durch die Einbeziehung von Aspekten wie Angreifbarkeit, Robustheit und Qualität der Trainingsdaten bringen wir Licht in das Black Box-Dunkel und definieren Qualitätsstandards, die die Grundlage für entsprechende Prüfungen und Zertifizierungen bilden.
Diese entwickelten Qualitätsstandards bilden eine elementare Voraussetzung, um Vertrauen und Sicherheit in Künstliche Intelligenz zu schaffen.



