#
Zukunft

Mensch vor Maschine

3.4.2026

Aus der Atemluft eines Patienten eine Lebererkrankung herauszulesen, ist keine Frage ärztlicher Intuition, sondern von Algorithmen. Für Michael Netzer, preisgekrönter Assistenzprofessor an der UMIT Tirol, war das der Moment, der ihn für die medizinische Informatik gewonnen hat. Heute treibt ihn noch eine andere Frage um: Wie bleibt der Mensch souverän gegenüber einer Technologie, die ihm zunehmend das Denken abnimmt? Sein Credo heißt AI-Literacy, die größte Gefahr droht durch Deskilling.
 
 
ECO.NOVA: Viele Menschen nutzen schon heute täglich KI, oft ohne es zu merken. Wo begegnet uns Maschinelles Lernen bzw. Machine Learning im Alltag? 
MICHAEL NETZER: Methoden der KI werden schon lange verwendet, wobei das Maschinelle Lernen einen zentralen Teilbereich darstellt. Darunter fallen zum Beispiel E-Mail-Spam-Filter. Personalisierte Werbung und Empfehlungen, die sogenannten Recommender-Systeme, gehören ebenfalls dazu. Sie kommen in Streamingdiensten ebenso zum Einsatz wie bei Werbevorschlägen im Netz. Maschinelles Lernen ist auch in der Gesichtserkennung von Smartphones im Spiel. Es gibt also zahlreiche Anwendungen, die wir täglich nutzen. Das ist uns vielfach gar nicht bewusst.
 
Wie erklären Sie einem Laien, was Maschinelles Lernen und Data Mining ist und wozu es gut sein kann?  
Die Grundidee hinter dem Maschinellen Lernen ist, dass in Daten Muster erkannt werden, ohne dass ein Mensch diese vorher explizit programmieren muss. Je mehr Daten vorhanden sind, desto besser wird die Mustererkennung. Data Mining ist hierbei ein zentraler Schritt: Man durchsucht große Datenmengen gezielt nach Zusammenhängen, die man zuvor nicht wahrgenommen hätte. Ein Beispiel aus meiner eigenen Forschungsarbeit: Wir haben massenspektrometrische Messdaten der Atemluft analysiert und der entwickelte Algorithmus hat Muster gefunden, die auf Lebererkrankungen hindeuten. Diese Muster wären für Menschen in den Rohdaten kaum erkennbar gewesen. Genau das ist die Stärke dieser Methoden.
 
Was hat Sie an diesem Bereich fasziniert?  
Ich hatte mit dem Thema erstmals in einer Vorlesung 2005 näher zu tun. Ich habe später die Möglichkeit bekommen, bei einem biomedizinischen Forschungsprojekt mitzuarbeiten. Es ging darum, anhand der Atemluft Lebererkrankungen zu erkennen. Es hat mich fasziniert, wie mittels Algorithmen aus sehr großen Datenmengen nachvollziehbare und rekonstruierbare Muster entstanden sind. Die Verbindung zwischen Informatik und Medizin lässt mich seitdem nicht mehr los.
 
Was hat sich im Maschinellen Lernen seit Ihrem Einstieg 2007 bis heute geändert? Ist es noch Evolution – oder würden Sie gar von einer Revolution sprechen?  
Ich habe mich über viele Jahre stark mit diskriminativen Modellen befasst, was insbesondere in der biomedizinischen Forschung von großem Interesse ist. Solche Verfahren lernen, relevante Unterschiede in komplexen Daten zu erkennen und daraus Vorhersagen zu treffen – zum Beispiel, ob eine Fettleber vorliegt: ja oder nein. Die zweite Kategorie sind sogenannte generative Modelle, deren grundlegende Verfahren ebenfalls schon lange existieren. Ich habe aber unterschätzt, was die Entwicklung und möglichen Anwendungsfälle dieser generativen Modelle betrifft, insbesondere mit der Transformer-Architektur als Grundlage der heutigen Large Language Models (LLMs). Man kann es durchaus als Revolution bezeichnen, was sich hier in den letzten Jahren getan hat. Beachtlich ist auch die rasante Entwicklung in diesem Bereich.
 
Künstliche Intelligenz wird oft als Revolution für die Medizin beschrieben. Ist das wissenschaftlich betrachtet berechtigt oder eher ein Hype?  
Bei bildgegebenen Verfahren beispielsweise in der Radiologie kann Maschinelles Lernen in der Diagnostik eine sehr große Hilfe sein. Will man Biomarker in hochdimensionalen Daten, wie sie zum Beispiel bei der Massenspektrometrie entstehen, finden, gilt dasselbe. Da kommt man mit Standardmethoden nur schwer voran. Bei diesen Fragestellungen ist algorithmische Unterstützung essenziell. Es war für mich damals ein echtes Aha-Erlebnis, als in massenspektrometrischen Daten Muster mit Vorhersagepotenzial erkannt wurden.
 
Sie unterrichten an der UMIT Tirol und in der Handelsakademie Imst sowie im IT-Kolleg in Imst. Welche Implikationen hat generative KI in der Softwareentwicklung?  
Die heutigen Modelle verfügen über ein bemerkenswertes Sprachverständnis und sind zunehmend besser im Programmieren geworden. Sie können dementsprechend Quellcode auf sehr hohem Niveau generieren. Dies bedeutet, dass der menschliche Fokus stärker auf Anforderungsanalyse, Architektur, Problemlösung, User Experience und Qualitätskontrolle liegt, während KI zunehmend als Werkzeug im Entwicklungsprozess eingesetzt wird.
 
Wo liegen heute die Grenzen von Machine Learning – speziell in der Medizin?  
Viele Methoden des maschinellen Lernens basieren auf neuronalen Netzwerken. Diese Modelle liefern oft sehr gute Ergebnisse, funktionieren jedoch für Menschen häufig wie eine Blackbox, weil ihre Entscheidungsprozesse schwer nachvollziehbar sind. Deshalb gibt es vielversprechende Ansätze der sogenannten Explainable AI (XAI), die darauf abzielen, die Entscheidungen von KI-Systemen transparenter und für Menschen besser verständlich zu machen. Das ist grundsätzlich eine sehr wichtige Entwicklung. Problematisch ist zudem das Thema Bias. Dieser entsteht beispielsweise durch unausgewogene oder verzerrte Trainingsdaten und kann dazu führen, dass die Ergebnisse eines Modells systematisch verfälscht werden. Wichtig ist daher, sich bewusst zu machen: KI ist keine Superintelligenz, sondern erkennt Muster in den Daten, mit denen sie trainiert wurde. Gerade in der medizinischen Anwendung muss man diese Grenzen stets im Hinterkopf behalten.
 
In der Informatik spricht man oft vom „Garbage in, garbage out“-Prinzip. Gilt das bei KI-Systemen heute mehr denn je?  
Ja, absolut. In der Medizin ist das besonders heikel. Die Qualität und die Zusammensetzung der Trainingsdaten entscheiden letztlich darüber, ob ein Modell in der Realität funktioniert oder versagt. Deshalb ist Datenqualität aus meiner Sicht keine technische Randnotiz, sondern eine ethische Frage.
 
Medizinische Daten gehören zu den sensibelsten Daten überhaupt. Wie lässt sich Innovation mit Datenschutz vereinbaren?  
Datenschutz und Datensicherheit sind unabdingbar in der medizinischen Forschung. Dabei geht es verstärkt auch darum, KI lokal verfügbar zu machen, sodass die Daten nicht an externe Server gehen.
 
In Europa ist KI deutlich strenger reguliert als in anderen Weltregionen. Verpassen wir dadurch Chancen oder halten Sie diesen vorsichtigeren Ansatz für richtig?  
Der europäische AI-Act ist durchaus sinnvoll. Es braucht ein Regulativ, um Negativentwicklungen wie dem Social Scoring vorzubeugen. Die Einschränkungen, die im AI-Act festgelegt sind, halte ich für richtig.
 
Sie lehren sowohl an einer Handelsakademie als auch an der UMIT Tirol. Wie bringen Sie den Schüler*innen und Studierenden die Chancen und Gefahren von KI näher?  
Eine der wichtigsten Kompetenzen in diesem Zusammenhang wird zukünftig AI-Literacy sein. AI-Literacy beschreibt die Fähigkeiten, das Wissen und die Haltung, die Menschen brauchen, um Künstliche Intelligenz zu verstehen, sinnvoll zu nutzen und kritisch zu beurteilen. Es geht nicht darum, selbst KI zu programmieren, sondern darum, KI-mündig zu werden. Das bedeutet, einen sinnvollen und vor allem reflektierten Umgang mit Künstlicher Intelligenz zu entwickeln. Pauschale KI-Verbote sind nicht sinnvoll, auch wenn bereits gute Ansätze für eine KI-resistente Unterrichtsgestaltung existieren. Von besonderer Bedeutung ist, dass Schüler*innen und Studierende verstehen, worum es beim Deskilling geht. Wer konsequent den schnellen Weg über die KI nimmt, beraubt sich langfristig wichtiger Lernchancen. Das gilt gerade auch in der Informatik. Obwohl die KI einen sehr guten Code generieren kann, ist es nach wie vor sehr wichtig, selbst programmieren zu lernen. Das fördert das Computational Thinking, also strukturiertes und lösungsorientiertes Denken, und bewahrt zugleich eine gewisse Autonomie und Unabhängigkeit von der KI. Es gilt, Deskilling zu vermeiden und selbst kreativ – oder generativ – zu bleiben. Kritisches Denken ist ebenfalls ein weiterer sehr wichtiger Punkt, den man nicht an die Maschinen delegieren kann.
 
Ist die Vermittlung von AI-Literacy eine Angelegenheit für ein spezielles Fach, oder sollte man ihr fächerübergreifend Raum geben, weil sie alle Richtungen berührt?
Ich würde AI-Literacy unbedingt als transversale Kompetenz sehen, die fächerübergreifend vermittelt werden sollte.
 
Sie wurden für Ihre Lehrveranstaltung „Einführung in die Medizinische Informatik“ mit dem Ars Docendi – Staatspreis für exzellente Lehre ausgezeichnet. Was war die zentrale Idee hinter diesem Lehrkonzept?  
Ich wollte kognitivistische Ansätze – Lernen durch Denken – mit konstruktivistischen Ansätzen – Lernen durch aktives Handeln – verbinden. Gleichzeitig sollte genug Freiraum für Kreativität bleiben, damit neue Ideen entstehen können. Zudem habe ich Kollaboration und kritisches Denken – zentrale 21st-Century-Skills – in das Lehrkonzept integriert. Das ist bei den Studierenden gut angekommen und ich bin dabei, diese Ideen auch auf andere Lehrveranstaltungen zu übertragen.
 
Unterscheidet sich Ihre didaktische Herangehensweise stark zwischen BHS und Hochschule?  
AI-Literacy ist in beiden Fällen das Ziel und das Fundament, allerdings passe ich Methoden und Tiefe der Inhalte an die jeweilige Zielgruppe an.
 
Sorgt AI-Literacy für eine Entmystifizierung von Künstlicher Intelligenz?  
Absolut. Das ist eine Folge davon. Der Begriff Künstliche Intelligenz suggeriert mitunter mehr, als er einlösen kann. Ich bevorzuge daher den Begriff Maschinelles Lernen.
 
Sind die Schüler*innen enttäuscht, wenn sie erfahren, was in der KI unter der Haube vorgeht?  
Die meisten schätzen es, wenn sie etwas über die Funktionsweise und Limitationen von KI erfahren. So können sie damit in Verbindung stehende Themen besser einordnen.
 
Wie stehen die jungen Menschen, mit denen Sie in der Lehre zu tun haben, der KI gegenüber?  
Ambivalent. Sehr häufig stellen sich die jungen Menschen die Frage, wie es am Arbeitsmarkt weitergehen wird und ob die Qualifikationen, die sie in der Schule und im Studium erwerben, später noch relevant sein werden. Gleichzeitig sind sie neugierig und offen dafür, neue Technologien zu lernen und sich auf Veränderungen einzustellen, was sowohl Chancen als auch Unsicherheiten mit sich bringt.
 
Wird KI für ein Blutbad am Arbeitsmarkt sorgen, wie es verschiedentlich befürchtet wird?  
Das glaube ich nicht. Jobs werden verschwinden, neue Jobs entstehen. Ich bin zuversichtlich, dass man auf menschliche Arbeitskraft und vor allem auf Brainpower nicht verzichten können wird. Natürlich sind manche Berufsgruppen stärker betroffen, wenn der Grad der Automatisierung zunimmt. Das war aber bei früheren Technologiesprüngen nicht anders. KI ist ein Werkzeug und wird immer ein Werkzeug bleiben. Den jungen Menschen kann man sagen: Die Frage ist nicht, ob KI deinen Job übernimmt, sondern ob jemand, der KI gut einsetzt, deinen Job übernimmt. Das ist ein Unterschied. Und genau deshalb ist AI-Literacy so wichtig. Nicht als Schutz vor der Technologie, sondern als Voraussetzung dafür, sie souverän zu nutzen.
 

Interview: Marian Kröll

Um diesen Beitrag weiter zu lesen,
bestellen Sie bitte die aktuelle Printausgabe.

Ausgabe kaufen
Mehr erfahren
news.
letter

Newsletter

Mit dem kostenlosen Newsletter keine spannenden Beiträge mehr verpassen!
Pünktlich zum Erscheinen jeder Ausgabe gibt's vier Artikel in voller Länge.
Jetzt ANmelden
alle.
ausgaben
Mehr erfahren
Wirtschaftsausgabe April 2026
04/2026

Wirtschaftsausgabe April 2026

Jetzt bestellen
Online lesen
Spezial: Lifestyle März 2026
03/2026

Spezial: Lifestyle März 2026

Jetzt bestellen
Online lesen
Wirtschaftsausgabe Februar 2026
02/2026

Wirtschaftsausgabe Februar 2026

Jetzt bestellen
Online lesen
Wirtschaftsausgabe Dezember 2025
12/2025

Wirtschaftsausgabe Dezember 2025

Jetzt bestellen
Online lesen
Mehr erfahren
Gebaut von Momentum Brand & Product 🧡💛💚
schließen