Software- und Entwicklungstools
Informatik, Telefonie
Sicherheit
25.05.2023 13:00

Mit anderen teilen:

Aktie

Wissenschaftler forschen daran, künstliche Intelligenz zu verstehen

Forscher haben eine innovative Methode entwickelt, um zu bewerten, wie künstliche Intelligenz (KI) Daten versteht und so die Transparenz und das Vertrauen in KI-basierte Diagnose- und Vorhersagetools verbessert.
Foto: Unsplash
Foto: Unsplash

Dieser Ansatz hilft Benutzern, das Innenleben der „Black Boxes“ von KI-Algorithmen zu verstehen, insbesondere im medizinischen Einsatz und im Kontext des bevorstehenden europäischen Gesetzes über künstliche Intelligenz.

Eine Gruppe von Forschern der Universität Genf (UNIGE), der Universitätskliniken Genf (HUG) und der National University of Singapore (NUS) hat einen neuen Ansatz zur Bewertung des Verständnisses von Technologien der künstlichen Intelligenz entwickelt.

Dieser Durchbruch ermöglicht eine größere Transparenz und Glaubwürdigkeit von KI-gestützten Diagnose- und Vorhersagetools. Die neue Methode deckt die mysteriöse Funktionsweise der sogenannten „Black Boxes“ von KI-Algorithmen auf und hilft Benutzern zu verstehen, welche Auswirkungen die von KI erzeugten Ergebnisse haben und ob ihnen vertraut werden kann.

Dies ist besonders wichtig in Szenarien, die erhebliche Auswirkungen auf die Gesundheit und das Wohlbefinden des Menschen haben, wie beispielsweise der Einsatz von KI im medizinischen Umfeld. Besondere Bedeutung kommt der Forschung im Zusammenhang mit dem bevorstehenden EU-Gesetz über künstliche Intelligenz zu, das die Entwicklung und Nutzung von KI in der EU regeln soll.

Die Ergebnisse wurden kürzlich in der Fachzeitschrift Nature Machine Intelligence veröffentlicht. Zeitliche Arten von Daten, die die Entwicklung von Informationen im Laufe der Zeit darstellen, gibt es überall: zum Beispiel in der Medizin bei der Aufzeichnung der Herzaktivität mit einem Elektrokardiogramm (EKG), bei der Untersuchung von Erdbeben, der Verfolgung von Wettermustern oder in der Wirtschaft zur Überwachung der Finanzlage von Märkten .

Diese Daten können mithilfe von KI-Technologien modelliert werden, um Diagnose- oder Vorhersagetools zu erstellen. Der Fortschritt der KI und insbesondere des Deep Learning, bei dem eine Maschine mithilfe großer Datenmengen trainiert wird, um diese zu interpretieren und nützliche Muster zu lernen, ebnet den Weg für immer genauere Diagnose- und Vorhersagewerkzeuge. Dennoch wirft der Mangel an Erkenntnissen darüber, wie KI-Algorithmen funktionieren und was ihre Ergebnisse beeinflusst, wichtige Fragen zur Zuverlässigkeit der Black-Box-KI-Technologie auf.

„Die Funktionsweise dieser Algorithmen ist bestenfalls intransparent“, sagt Professor Christian Lovis, Direktor der Abteilung für Radiologie und Medizinische Informatik an der Medizinischen Fakultät der UNIGE und Leiter der Abteilung für Medizinische Informationswissenschaft am HUG und einer der Autoren der Studie zum Verständnis von KI.

„Natürlich steht viel auf dem Spiel, vor allem finanziell. Aber wie können wir einer Maschine vertrauen, ohne die Grundlage ihrer Argumentation zu verstehen? Diese Fragen sind von entscheidender Bedeutung, insbesondere in Branchen wie der Medizin, wo KI-gesteuerte Entscheidungen Auswirkungen auf die Gesundheit und sogar das Leben der Menschen haben können, und im Finanzwesen, wo sie zu enormen Kapitalverlusten führen können.

Verstehensmethoden streben danach, diese Fragen zu beantworten, indem sie aufdecken, warum und wie die KI zu einer bestimmten Entscheidung kam und welche Gründe dafür vorliegen. „Die Kenntnis der Elemente, die in einer bestimmten Situation den Ausschlag für oder gegen eine Lösung gegeben haben, was zumindest eine gewisse Transparenz ermöglicht, erhöht unser Vertrauen in die Funktionsweise der Tools“, sagt Assistenzprofessor Gianmarco Mengaldo, Direktor des MathEXLab-Labors am Fakultät für Design und Ingenieurwesen der National University of Singapore.

„Allerdings führen aktuelle Verständnismethoden, die in praktischen Anwendungen und industriellen Schaltkreisen weit verbreitet sind, zu sehr unterschiedlichen Ergebnissen, selbst wenn sie auf dieselbe Aufgabe und denselben Datensatz angewendet werden. Dies wirft eine wichtige Frage auf: Welche Methode ist die richtige, wenn es eine eindeutige, richtige Antwort geben soll? Wird die Bewertung von Verstehensmethoden deshalb genauso wichtig wie das Verstehen selbst?»

Verständnis der künstlichen Intelligenz ChatGPT Google Bard

Unterscheidung zwischen wichtigen und irrelevanten Informationen

Die Differenzierung von Daten ist der Schlüssel zur Entwicklung vollständig verstandener KI-Technologien. Wenn künstliche Intelligenz beispielsweise Bilder analysiert, konzentriert sie sich auf einige hervorstechende Merkmale.

Der Doktorand im Labor von Professor Lovis und Erstautor der KI-Studie Hugues Turbé erklärt: „KI kann beispielsweise zwischen einem Bild eines Hundes und einem Bild einer Katze unterscheiden.“ Das gleiche Prinzip gilt auch für die Analyse von Zeitabläufen: Die Maschine muss in der Lage sein, die Elemente auszuwählen, auf deren Grundlage sie denkt. Im Fall von EKG-Signalen bedeutet dies, die Signale verschiedener Elektroden zu harmonisieren, um mögliche Schwankungen zu beurteilen, die ein Zeichen für eine bestimmte Herzerkrankung wären.»

Es ist nicht einfach, aus allen für einen bestimmten Zweck verfügbaren Verstehensmethoden eine auszuwählen. Verschiedene KI-Methoden liefern oft sehr unterschiedliche Ergebnisse, selbst wenn sie auf denselben Datensatz und dieselbe Aufgabe angewendet werden.

Um dieser Herausforderung zu begegnen, haben die Forscher zwei neue Bewertungsmethoden entwickelt, um zu verstehen, wie KI Entscheidungen trifft: eine zur Identifizierung der wichtigsten Teile eines Signals und eine andere zur Bewertung ihrer relativen Bedeutung für die endgültige Vorhersage.

Für die Verständnisbewertung versteckten sie einen Teil der Daten, um zu sehen, ob sie für die KI-Entscheidungsfindung relevant waren. Dieser Ansatz führte jedoch manchmal zu Fehlern in den Ergebnissen. Um dieses Problem zu beheben, wurde die Maschine mit einem erweiterten Datensatz trainiert, der versteckte Daten enthielt, was dazu beitrug, das Gleichgewicht und die Genauigkeit aufrechtzuerhalten. Anschließend entwickelte das Team zwei Methoden zur Messung des Erfolgs der Verständnismethoden, die zeigten, ob die KI die richtigen Daten zur Entscheidungsfindung nutzte und ob alle Daten richtig berücksichtigt wurden.

„Unsere Methode zielt darauf ab, das Modell zu bewerten, das wir tatsächlich in unserem Einsatzgebiet einsetzen werden, und so seine Zuverlässigkeit sicherzustellen“, erklärt Hugues Turbé. Um die Forschung fortzusetzen, entwickelte das Team einen synthetischen Datensatz, der der wissenschaftlichen Gemeinschaft zur Verfügung steht, um jede neue KI, die zur Interpretation von Sequenzen in čas entwickelt wurde, einfach zu evaluieren.

Die Zukunft der künstlichen Intelligenz in der Medizin

Das Team plant, seine Methode in einem klinischen Umfeld zu testen, wo die Angst vor KI noch immer weit verbreitet ist. „Der Aufbau von Vertrauen in die Beurteilung künstlicher Intelligenz ist ein wichtiger Schritt zur Akzeptanz im klinischen Umfeld“, erklärt Dr. Mina Bjelogrlic, die das Team für maschinelles Lernen in der Lovis-Abteilung leitet und Mitautorin dieser Studie ist. „Unsere Forschung konzentriert sich auf die Bewertung von KI auf der Grundlage von Zeitsequenzen, aber die gleiche Methodik könnte auch auf KI angewendet werden, die auf anderen Datentypen wie Bild- oder Textdaten basiert. Ziel ist es, Transparenz, Verständlichkeit und Verlässlichkeit von KI für Nutzer sicherzustellen.»

Das Verständnis der Funktionsweise künstlicher Intelligenz ist der Schlüssel zum Aufbau von Vertrauen in ihren Einsatz, insbesondere in kritischen Sektoren wie Medizin und Finanzen. Die von einem Forscherteam der Universität Genf und der National University of Singapore durchgeführte Studie bietet eine innovative Methode zur Bewertung des Verständnisses künstlicher Intelligenz, die Benutzern hilft, zu verstehen, warum und wie Entscheidungen getroffen werden. Dieser Ansatz ist besonders wichtig für medizinische Anwendungen, wo Entscheidungen, die von künstlicher Intelligenz getroffen werden, lebensrettend sein können.


Interessiert an mehr zu diesem Thema?
ChatGPT Google künstliche Intelligenz


Was lesen andere?