In einer digitalisierten Welt hochautomatisierter Systeme, die kritische Entscheidungen auf Basis von komplexen Algorithmen und künstlicher Intelligenz (AI) treffen, verschieben sich diese Funktionen weg vom verantwortlichen Menschen zu computerbasierten Entscheidungssystemen. Schon aus der Science-Fiction-Literatur sind die Ansätze für »Roboterethik« (Isaak Asimov, Robotergesetze) bekannt. Besondere Aufmerksamkeit wurde in letzter Zeit diesem Aspekt in Zusammenhang mit »Autonomen Fahren« geschenkt, da dies besonders auch in die rechtliche Verantwortung des Fahrzeuglenkers/-besitzers bzw. des Herstellers des »fahrenden Roboters«, aber in einer Massenanwendung, fallen wird (ein Beispiel sind die zwanzig Leitsätze der deutschen Ethikkommission für automatisiertes Fahren). Dies gilt aber auch für andere Entscheidungssysteme, ein negatives Beispiel eines trainierten KI-Systems mit Bias (»verzerrter Sicht«) ist, z.B. das Amazon-Rekrutierungssystem. Eine von der Europäischen Kommission eingesetzte »High-Level Expert Group on AI« hat eine Ethische Richtlinie für vertrauenswürdige KI erarbeitet und April 2019 veröffentlicht, in der die Grundsätze für menschwürdige KI Anwendungssysteme festgehalten werden. Diese Richtlinie wird erläutert und kommentiert. Dies ist jedoch weder die erste noch die einzige Betrachtung zu diesem Thema, andere sind z.B. von der Europäischen Informatikgesellschaft, von IEEE (»Ethical Aligned Design«, EAD, auch mit Zertifizierungsansatz), sowie von einigen Herstellern (Google Car), von verschiedenen Standardisierungsorganisationen wie IEC und ISO betreffend die Berücksichtigung ethischer Prinzipien in der Standardisierung kritischer Automatisierungssysteme usw. Auch in großen Europäischen Forschungsprojekten müssen ethische Aspekte in zunehmendem Maße berücksichtigt und behandelt werden. Über diese Bemühungen wird ebenfalls ein Überblick geboten.