Gemeinsam mit WomeninAI und Isabell Claus von thinkers.AI hatte ich letzte Woche im Rahmen der Messe Salz21 die Möglichkeit an einer Panel Diskussion zum Thema vertrauensvolle AI teilzunehmen. Die Frage ob und wie wir AI Software vertrauen dürfen, wurde von uns aus verschiedenen Blickwinkeln diskutiert.
Einerseits die technisch-rechtliche Perspektive mit dem Problem, dass Innovation in den meisten Fällen zuerst kommt und das Rechtssystem danach. Innovationen und AI Softwarekomponenten sind vielfach fortschrittlicher als es das jeweilige Gesetz vorsieht. Somit passt sich die Innovation an die Gesetzeslage an. Was wir jedoch sehen, das bestimmte Bereiche wie FinTech, MedTech, Cyberkriminalität, aber auch autonome Systeme Veränderung in den Gesetzen braucht um der Innovation gerecht zu werden.
Anderseits die soziale und ethische Perspektive, die darüber entscheidet wie bestimmte Technologien angenommen werden und wie wir aufgrund der Technologie urteilen. Beispielsweise Gesichtsfilter im Computer Vision Bereich die vortäuschen, dass wir jünger aussehen oder Algorithmen und Filter im Bereich der Human Resources die darüber entscheiden, dass wir zu einem Gespräch eingeladen werden oder nicht. Diese Technologien unterliegen im höchstem Maß unserem Urteil (Bias), das sehr verschieden sein kann.
Gefährlich wird es jedoch, wenn Entwickler bei einer AI basierten Software etwas implementieren, das dem Menschen moralischen oder physischen Schaden zufügen kann. Um dies zu verhindern entsteht auf europäischer Ebene ein gesetzlicher Rahmen der AI Act. Dieser wurde bereits von den unterschiedlichsten Mitgliedstaaten beurteilt und es wurden Ergänzungen durchgeführt. Dabei wird auf EU Ebene in einem risikobasierten Ansatz unterschieden, welche Software am gefährlichsten (High-Risk) sein kann und welche limitierte Risiken oder auch akzeptable Risiken hat. Die Einordnung in High-Risk und Limited Risk ist noch nicht final und wird in bestimmten Bereichen wie SW für autonome Systeme sicherlich weiter diskutiert werden.