Sam Altman sagt sinngemäß >>KI kann richtige Ratschläge geben, aber wir verlieren Entscheidungsfreiheit, wenn wir blind folgen<<
In meiner Arbeit in Robotik-Safety sehe ich Parallelen. Auch bei Maschinen gilt seit jeher, Technik soll den Menschen unterstützen, nicht Entscheidungen vollständig übernehmen.
Sicherheit entsteht nicht allein durch perfekte Technik, sondern durch die bewusste Einbindung des Menschen in kritische Prozesse.
Genau deshalb wird es jetzt spannend -> Mit der neuen Maschinenverordnung, dem Cyber Resilience Act (CRA) und NIS 2 kommen Rahmenwerke, die Safety, Cyber-Resilienz und menschliche Verantwortung enger zusammenbringen.
Mit dem Ziel, das KI- und Robotiksysteme sicher und vertrauenswürdig gestalten, Cybersecurity und Safety verzahnen, den Menschen in der Verantwortungskette halten.
Für mich heißt es nun -> KI ist ein Werkzeug, kein Autopilot. Safety muss technisch und regulatorisch zusammengedacht werden. Und selbstbestimmtes Handeln muss auch in hochautomatisierten Umgebungen gesichert bleiben.
Brauchen wir dafür neue Standards, die Technik, Recht und Ethik noch enger verbinden?