Erklärbare künstliche Intelligenz (XAI) ist ein Ast der KI, der den Benutzern hilft, in die Black-Box von AI-Modellen zu schauen, um zu verstehen, wie ihre Ausgabe erzeugt wird und ob deren Prognosen vertrauen können. In jüngster Zeit hat XAI bei Computer -Vision -Aufgaben wie Bilderkennung an Bedeutung gewonnen, bei denen das Verständnis von Modellentscheidungen von entscheidender Bedeutung ist. Aufbauend auf seinem Erfolg auf diesem Gebiet wird es nun allmählich auf verschiedene Bereiche ausgedehnt, in denen Vertrauen und Transparenz besonders wichtig sind, einschließlich Gesundheitsversorgung, Transport und Finanzen.
Forscher des EPFL-Labors für Wind Engineering and Renewable Energy (Kabel) haben XAI auf die in ihrem Gebiet verwendeten Black-Box-KI-Modelle zugeschnitten. In einer Studie in erscheint in Angewandte EnergieSie stellten fest, dass XAI die Interpretierbarkeit der Windkraftprognose verbessern kann, indem er einen Einblick in die von einem Black-Box-Modell getroffene Entscheidungen liefert, und erkennen, welche Variablen in der Eingabe eines Modells verwendet werden sollten.
„Bevor die Netzbetreiber die Windkraft effektiv in ihre intelligenten Netze integrieren können, benötigen sie zuverlässige tägliche Prognosen der Windenergieerzeugung mit einem geringen Irrtum“, sagt Prof. Fernando Porté-Agel, der der Leiter des Drahtes ist. „Ungenauige Prognosen bedeuten, dass die Netzbetreiber in letzter Minute ausgleich werden müssen und häufig teurere Energie auf fossilen Brennstoffen basieren.“
Glaubwürdigere und zuverlässige Vorhersagen
Die derzeit zur Vorhersagung der Windleistung verwendeten Modelle basieren auf Flüssigkeitsdynamik, Wettermodellierung und statistischen Methoden-sie haben dennoch einen nicht zu vernachlässigen Fehlerrand. Mit AI konnten Ingenieure die Vorhersagen von Windkraft verbessern, indem umfangreiche Daten verwendet werden, um Muster zwischen Wettermodellvariablen und Windturbinenleistung zu identifizieren. Die meisten KI -Modelle fungieren jedoch als „schwarze Boxen“ und machen es schwierig zu verstehen, wie sie zu bestimmten Vorhersagen kommen. XAI befasst sich mit diesem Problem, indem er die Modellierungsprozesse zur Transparenz bereitstellt, die zu den Prognosen führen, was zu glaubwürdigeren und zuverlässigeren Vorhersagen führt.
Wichtigste Variablen
Um seine Studie durchzuführen, trainierte das Forschungsteam ein neuronales Netz Windparks in der Schweiz und weltweit. „Wir haben vier XAI -Techniken zugeschnitten und Metriken entwickelt, um festzustellen, ob die Interpretation der Daten durch die Technik zuverlässig ist“, sagt Wenlong Liao, der Hauptautor der Studie und ein Postdoc bei Wire.
Im maschinellen Lernen bewerten Metriken die Ingenieure, um die Modellleistung zu bewerten. Beispielsweise können Metriken zeigen, ob die Beziehung zwischen zwei Variablen Kausalität oder Korrelation ist. Sie sind für bestimmte Anwendungen entwickelt-diagnostizieren eine Krankheit, messen die Anzahl der Stunden, die für die Verkehrsstaus verloren gehen oder die Bewertung des Aktienmarkts eines Unternehmens berechnen. „In unserer Studie haben wir verschiedene Metriken definiert, um die Vertrauenswürdigkeit von XAI -Techniken zu bewerten. Darüber hinaus können vertrauenswürdige XAI -Techniken bestimmen, welche Variablen wir in unsere Modelle einbeziehen sollten, um zuverlässige Prognosen zu generieren“, sagt Liao. „Wir haben sogar gesehen, dass wir bestimmte Variablen aus unseren Modellen herauslassen könnten, ohne sie weniger genau zu machen.“
Wettbewerbsfähiger
Laut Jiannong Fang-einem EPFL-Wissenschaftler und Co-Autor der Studie-könnten diese Ergebnisse dazu beitragen, die Windkraft wettbewerbsfähiger zu machen. „Die Betreiber des Stromversorgungssystems haben sich nicht sehr wohl, wenn sie die Windkraft verlassen, wenn sie die internen Mechanismen, auf denen ihre Prognosemodelle basieren, nicht verstehen“, sagt er. „Mit einem XAI-basierten Ansatz können Modelle diagnostiziert und verbessert werden, wodurch zuverlässigere Prognosen von täglichen Windkraftschwankungen erzeugt werden.“