Loading Events

KI mit Verantwortung: Ethik, Technologie, Transparenz und Sicherheit

 

Gedanken zur sicheren Zusammenarbeit zwischen Menschen und »intelligenten« Maschinen – Erwin Schoitsch

Best Practices für sichere und zuverlässige KI-Anwendungen – Thomas Doms

Responsible Annotation – Martin Hartl / Andreas Schachl

Pushing European AI sovereignty by world class deep tech research and industrial transformation – Lukas Fischer

Schutz vor Desinformation: Media Intelligence am AIT – Ross King

Agenda


David Steinmetz Markus Manz

.



Lukas Fischer

NXAI advances European AI sovereignty through its world-class research and industrial transformation, showcasing xLSTM, a new class of algorithms tailored for industrial needs that surpasses Transformer models in training and inference speed. While the focus is often on large language models (LLMs), NXAI prioritizes specialized, small, and powerful language models, complementing them with TiRex, an xLSTM-based timeseries model that leads international benchmarks with its in-context learning and state tracking capabilities. xLSTM is not confined to language; Vision-xLSTM is employed by drone developers to process video signals, enabling depth estimation and navigation by understanding relationships across frames, crucial for autonomous systems. The development of xLSTM and its applications, including TiRex, represents a significant leap toward industrial transformation and achieving European AI independence.



Erwin Schoitsch

KI-Anwendungen werden zunehmend in technischen Anwendungen eingesetzt, Beispiele sind Autonomes Fahren, mobile Roboter in Industrie und Transport, in Überwachung gefährlicher Situationen im öffentlichen Raum, Notfalleinsätzen in gefährlichen Umgebungen, Smarte Produktion, aber auch in der Klinik, in der Ausbildung und im Haushalt. Der Mensch kann dabei unterschiedlichste Rollen einnehmen, sogar direkt mit Maschinen zusammenarbeiten in körperlichem Kontakt. Sowohl die Forschung (AI2X Co-evolution) als auch die Standardisierung beschäftigen sich damit, die Grundlagen für eine sichere, vertrauenswürdige und ethisch verträgliche Entwicklung zu schaffen, als Voraussetzung für eine verantwortungsvolle Umsetzung der vorhandenen und kommenden gesetzlichen Vorgaben. Der Vortrag soll einen Überblick über ein AI2X Co-Evolution Projekt und aktuelle Standardisierungsbemühungen zu einem AI-Framework für »Human – Machine Teaming« geben.



Thomas Doms

KI-Anwendungen werden zunehmend in Unternehmenskontexten eingesetzt, in denen ein Versagen erheblichen Schaden oder Diskriminierung verursachen kann. Die rasche und weit verbreitete Einführung von KI-Technologie erfordert ein robustes Rahmenwerk zur Bewertung ihrer Ergebnisse und zur Minimierung von Risiken, insbesondere in hochkritischen Bereichen. Anhand von Best Practices aus Wissenschaft und Technik zeigt der Vortragende, welche Maßnahmen geeignet sind, in jeder Phase des KI-Lebenszyklus sicherzustellen, dass KI-Systeme vertrauenswürdig, sicher und zuverlässig für den beabsichtigten Einsatz sind und Schaden für den Einzelnen und die Gesellschaft verhindern.

Zudem wird ein Überblick über die notwendigen Prüfkriterien für KI-Systeme im Hinblick auf die Erfüllung der Anforderungen des EU AI Acts gegeben und sinnvolle Vorgehensweisen zur Implementierung einer hinreichenden KI-Governance & Compliance in Unternehmen im Spannungsfeld von Entwicklung, Betrieb und Nutzung dieser Systeme vorgestellt. Hierzu zählt auch erster Überblick über anwendbare Normen und Standards, wie die ISO/IEC 42001 (KI-Managementsysteme).




Martin Hartl Andreas Schachl

Datenannotation als Basis für KI-Training wird größtenteils ins Billiglohnländern unter prekären Bedingungen gemacht. Dass das nicht nicht so sein muss, beweisen der Verein Responsible Annotation und das Unternehmen Responsible Annotation Services.





Dr. Ross King vom AIT Austrian Institute of Technology gibt zunächst einen Überblick über das AIT, die grundlegenden Prinzipien von KI und deren Anwendung in der Medienmanipulation. Es wird gezeigt, wie KI zur Erzeugung irreführender Inhalte eingesetzt wird, beispielsweise durch Deepfakes oder generierte Texte. Seine Präsentation analysiert unterschiedliche Formen von Desinformation – von unbeabsichtigten Fehlinformationen bis hin zu gezielter Propaganda – und stellt die aktuellen Herausforderungen dar. Neben der technischen Perspektive liegt ein Fokus auf der gesellschaftlichen Verantwortung, etwa der Förderung von Medienkompetenz, unabhängiger Faktenprüfung und der Rolle von Journalismus in einer digitalen Welt. Abschließend werden bestehende Initiativen und Forschungsansätze vorgestellt, die eine Kombination aus technologischen Maßnahmen und gesellschaftlichem Bewusstsein propagieren, um der wachsenden Bedrohung durch KI-gestützte Desinformation zu begegnen.