Start Bildung & Karriere Der Aufstieg der multidisziplinären Forschung, angeregt durch KI-Forschungstools

Der Aufstieg der multidisziplinären Forschung, angeregt durch KI-Forschungstools

5
0
Biomedizinische Wissenschaftler haben Mühe, ihre eigenen Erkenntnisse zu reproduzieren

KI-Forschungstools wie OpenAI o1 sind mittlerweile angekommen Testergebnisniveaus, die die Ergebnisse der Doktoranden erreichen oder übertreffen. Abschlüsse in den Naturwissenschaften und eine Reihe anderer Bereiche. Diese generativen KI-Tools nutzen große Sprachmodelle, die Forschung und Wissen aus vielen Disziplinen umfassen. Zunehmend werden sie zur Ideenfindung für Forschungsprojekte und zur Literaturrecherche eingesetzt. Die Tools liefern Forschern interessante Erkenntnisse, die ihnen in den vergangenen Jahren möglicherweise nicht zugänglich waren.

Der akademische Bereich legt seit langem Wert auf die Einzeldisziplin-Forschung. Wir bieten Abschlüsse in einzelnen Disziplinen an; Fakultätsmitglieder erhalten Anstellungen meist nur in einer Abteilung, Schule oder Hochschule; und zum größten Teil sind unsere peer-reviewten wissenschaftlichen Zeitschriften nur einer Disziplin gewidmet, obwohl sie manchmal Beiträge aus eng verwandten oder verwandten Bereichen willkommen heißen. Dissertationen basieren meist auf einer einzigen Disziplin. Obwohl Forschungsstipendien häufiger multidisziplinär ausgerichtet sind und die Suche nach praktischen Lösungen im Vordergrund stehen, konzentrieren sich viele Stipendien weiterhin auf ein einziges Fachgebiet.

Das Problem besteht darin, dass wir, wenn wir unser Wissen und unsere Anwendungskompetenz in einem Bereich erweitern, möglicherweise wichtige Entwicklungen in anderen Bereichen übersehen, die sich direkt oder indirekt auf das Studium in der von uns gewählten Disziplin auswirken. Innovation ist nicht immer ein einseitiger, geradliniger Fortschritt. Heutzutage entsteht Innovation häufiger durch die Integration von Wissen aus unterschiedlichen Bereichen wie Soziologie, Ingenieurwesen, Ökologie und Umweltentwicklungen sowie durch ein erweitertes Verständnis der Quantenphysik und des Quantencomputings. Bis vor kurzem hatten wir keine effiziente Möglichkeit, Wissen und Perspektiven aus Bereichen zu identifizieren und zu integrieren, die auf den ersten Blick nichts miteinander zu tun zu haben scheinen.

Der KI-Futurist und Innovator Thomas Conway vom Algonquin College of Applied Arts and Technology befasst sich mit diesem Thema in „Die Macht der Vielen nutzen: Ein Multi-LLM-Ansatz zur multidisziplinären Integration”:

„Angesichts der Dringlichkeit immer komplexer werdender globaler Herausforderungen war der Bedarf an integrativen Ansätzen, die über traditionelle Disziplingrenzen hinausgehen, noch nie so wichtig wie heute.“ Klimawandel, globale Gesundheitskrisen, nachhaltige Entwicklung und andere drängende Probleme erfordern Lösungen aus vielfältigem Wissen und Fachwissen. Allerdings stellt die effektive Kombination von Erkenntnissen aus mehreren Disziplinen seit langem eine erhebliche Hürde in Wissenschaft und Forschung dar.

„Die Multi-LLM Iterative Prompting Methodology (MIPM) erweist sich als transformative Lösung für diese Herausforderung. MIPM bietet einen strukturierten und dennoch flexiblen Rahmen zur Förderung und Verbesserung multidisziplinärer Forschung, Peer-Review und Bildung. Im Kern befasst sich MIPM mit der grundlegenden Frage der effektiven Kombination verschiedener disziplinärer Perspektiven, um zu echter Synthese und Innovation zu führen. Sein transformatives Potenzial ist angesichts komplexer globaler Herausforderungen ein Hoffnungsschimmer.“

Selbst wenn wir KI-Forschungstools und -techniken integrieren, verändern wir uns selbst und unsere Gesellschaft insgesamt. Viele der gängigen Frontier-Sprachmodelle, die Forschungsinstrumenten zugrunde liegen, sind von Natur aus multidisziplinär, obwohl einige mit Stärken in bestimmten Bereichen konzipiert sind. Ihre Antworten auf unsere Aufforderungen sind multidisziplinär. Die Reaktion auf unsere iterativen Folgeaufforderungen kann uns in Bereiche und Fachgebiete führen, die uns vorher nicht bekannt waren. Die Antworten stammen nicht ausschließlich von einem einzelnen Fachexperten, Buch oder einer anderen Quelle. Sie stammen aus einem riesigen Sprachmodell, das Disziplinen, Sprachen, Kulturen und Jahrtausende umfasst.

Wenn wir diese Tools integrieren, werden auch wir auf natürliche Weise auf neue und aufkommende Perspektiven, Forschungen und Entwicklungen aufmerksam, die aus Bereichen entstehen, die außerhalb unseres täglichen Wissens, unserer Ausbildung und unseres Fachwissens liegen. Dies wird unsere Perspektiven über die Bereiche unseres formalen Studiums hinaus erweitern. Da die Qualität unserer KI-basierten Forschungstools zunimmt, kann ihr Einfluss auf die Forschung nicht genug betont werden. Es wird uns in neue Richtungen und umfassendere Perspektiven führen und das Potenzial für neues Wissen aufdecken, das von mehreren Disziplinen getragen wird. Ein aktuelles Beispiel ist Storm, ein Brainstorming-Tool, das vom Team des Open Virtual Assistant Lab (OVAL) in Stanford entwickelt wurde:

„Zu den Kerntechnologien des STORM&Co-STORM-Systems gehört die Unterstützung von Bing Search und GPT-4o mini. Die STORM-Komponente generiert iterativ Gliederungen, Absätze und Artikel durch Fragen und Antworten aus mehreren Blickwinkeln zwischen „LLM-Experten“ und „LLM-Hosts“. In der Zwischenzeit generiert Co-STORM durch Dialoge zwischen mehreren Agenten interaktive dynamische Mindmaps und stellt so sicher, dass der Benutzer keine Informationen übersieht. Benutzer müssen lediglich ein englisches Themenschlüsselwort eingeben und das System kann einen hochwertigen Langtext generieren, der Informationen aus mehreren Quellen integriert, ähnlich einem Wikipedia-Artikel. Beim Erleben des STORM-Systems können Benutzer frei zwischen den Modi STORM und Co-STORM wählen. Zu einem Thema kann STORM innerhalb von 3 Minuten einen strukturierten Langtext in hoher Qualität erstellen. Darüber hinaus können Benutzer auf „BrainSTORMing-Prozess anzeigen“ klicken, um den Brainstorming-Prozess verschiedener LLM-Rollen anzuzeigen. Im Abschnitt „Entdecken“ können Benutzer auf Artikel und Chat-Beispiele anderer Wissenschaftler verweisen, und persönliche Artikel und Chat-Aufzeichnungen sind auch in der Seitenleiste „Meine Bibliothek“ zu finden.“

Mehr über Storm finden Sie unter https://storm.genie.stanford.edu/.

Eines der Bedenken, die Skeptiker an diesem Punkt der Entwicklung dieser Forschungsinstrumente geäußert haben, ist die Sicherheit von Eingabeaufforderungen und Ergebnissen. Nur wenige sind sich der Möglichkeiten bewusst luftspaltig oder geschlossene Systeme und sogar die ChatGPT temporäre Chats. Im Fall von OpenAI können Sie einen temporären Chat starten, indem Sie oben in der GPT-App auf die Version von ChatGPT tippen, die Sie verwenden, und „Temporärer Chat“ auswählen. Ich mache das häufig bei der Verwendung Rays eduAI-Berater. OpenAI sagt, dass die Ergebnisse im temporären Chat-Modus „nicht im Verlauf erscheinen, keine Erinnerungen verwenden oder erstellen oder zum Trainieren unserer Modelle verwendet werden.“ Aus Sicherheitsgründen können wir eine Kopie bis zu 30 Tage lang aufbewahren.“ Wir können davon ausgehen, dass diese Art von Schutz auch von anderen Anbietern angeboten wird. Dies kann für viele Anwendungen ausreichende Sicherheit bieten.

Weitere Sicherheit kann durch die Installation einer eigenständigen Instanz der LLM-Datenbank und -Software auf einem Air-Gap-Computer gewährleistet werden, der die Daten vollständig vom Internet oder anderen Netzwerken getrennt hält und so ein beispielloses Schutzniveau gewährleistet. Kleine Sprachmodelle und mittelgroße Modelle liefern beeindruckende Ergebnisse, nähern sich der Leistung von Grenzmodellen an und übertreffen sie in einigen Fällen sogar, während alle Daten lokal und offline gespeichert werden. Zum Beispiel letztes Jahr Microsoft hat eine Reihe von SLM- und Medium-Modellen eingeführt:

„Microsoft verfügt über Erfahrung bei der Bereitstellung von Copiloten und ermöglicht es Kunden, ihre Unternehmen mithilfe generativer KI zu transformieren Azure-KI hat den wachsenden Bedarf an Modellen unterschiedlicher Größe entlang der Qualität-Kosten-Kurve für verschiedene Aufgaben hervorgehoben. Kleine Sprachmodelle wie Phi-3 eignen sich besonders gut für:

  • Ressourcenbeschränkte Umgebungen, einschließlich Inferenzszenarien auf dem Gerät und offline
  • Latenzbegrenzte Szenarien, bei denen schnelle Reaktionszeiten entscheidend sind.
  • Kostenbeschränkte Anwendungsfälle, insbesondere solche mit einfacheren Aufgaben.“

In naher Zukunft werden wir schlüsselfertige private Suchanwendungen finden, die noch beeindruckendere Ergebnisse liefern werden. Die Arbeit an rasch zunehmenden multidisziplinären Antworten auf die Forschung zu immer mehr drängenden Forschungsthemen geht weiter.

Die sich ständig weiterentwickelnden KI-Forschungstools liefern uns jetzt Antworten aus mehreren Disziplinen. Diese Ergebnisse werden uns dazu veranlassen, uns an mehr multidisziplinären Studien zu beteiligen, die als Katalysator für Veränderungen in der gesamten Wissenschaft dienen werden. Werden Sie über interdisziplinäre Forschungsstudien nachdenken und Ihre Kollegen aus anderen Bereichen für die Zusammenarbeit mit Ihnen in Forschungsprojekten gewinnen?

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein