Start Bildung & Karriere Die Welt der wissenschaftlichen Verlage setzt sich langsam für generative KI ein

Die Welt der wissenschaftlichen Verlage setzt sich langsam für generative KI ein

22
0
Die Welt der wissenschaftlichen Verlage setzt sich langsam für generative KI ein

Nur zwei Jahre nach der Veröffentlichung von ChatGPT durch Open AI entwickeln Verlage und Inhaltsaggregatoren eine Reihe KI-gestützter Such- und Entdeckungstools. Sie experimentieren auch damit, wie generative KI einem angespannten Forschungsökosystem bei Back-End-Aufgaben wie Bearbeitung, Peer-Review und Dokumentation des experimentellen Prozesses helfen könnte.

Dies sind alles Anzeichen dafür, dass die wissenschaftliche Verlagsbranche „auf ein exponentielles Wachstum ihrer Nutzung im gesamten Forschungs- und Publikationslebenszyklus“ eingestellt ist. laut einem Bericht veröffentlicht Ende letzten Monats vom Bildungsforschungsunternehmen Ithaka S+R.

Es folgt ein Bericht Die im Januar veröffentlichte Gruppe forderte eine gemeinsame Infrastruktur für den Umgang mit den Risiken und Chancen, die die digitale Technologie für die wissenschaftliche Kommunikation mit sich bringt. Dieser Bericht basierte jedoch auf Interviews von Anfang 2023, als ChatGPT erst seit wenigen Monaten auf dem Markt war.

„Viele Variablen“

Aber auch wenn die Technologie die Produktion und Veröffentlichung akademischer Forschung immer schneller beeinflusst, haben Forscher selbst die generative KI nur langsam in großem Umfang eingeführt, wie verschiedene Berichte – darunter auch einige von – zeigen Inside Higher Ed– gezeigt haben.

Um diese Diskrepanz besser zu verstehen, hat Ithaka S+R hat sein jüngstes Projekt gestartet letzten Sommer.

„Generative KI hat viele Variablen in die Gleichung des wissenschaftlichen Publizierens eingebracht. Und es gibt noch keinen gemeinsamen Rahmen zum Verständnis dieser Auswirkungen“, sagte Dylan Ruediger, Co-Autor beider Berichte und leitender Programmmanager der Forschungsunternehmensabteilung bei Ithaka S+R. „Daher gibt es auch keinen gemeinsamen Rahmen für das Verständnis, was bei der Bewältigung der Auswirkungen generativer KI eine Rolle spielen wird.“

Forscher äußern bereits Bedenken, dass die frei zugänglichen Informationen – von denen einige keiner strengen Peer-Review unterzogen wurden –, die zum Trainieren einiger großer Sprachmodelle (LLMs) verwendet werden, die Integrität der wissenschaftlichen Forschung untergraben könnten.

Der neue Bericht von Ithaka S+R, der auf Interviews mit einem Dutzend Vertretern aus der Welt des wissenschaftlichen Verlagswesens basiert, darunter Bibliothekare, Mitglieder wissenschaftlicher Gesellschaften, Geldgeber und Verleger, zeigt Übereinstimmungen sowie Meinungsverschiedenheiten darüber auf, was KI für die akademische Forschungspraxis bedeuten könnte vorwärts gehen.

„Die Personen, mit denen wir gesprochen haben, sind sich einig, dass generative KI Effizienzsteigerungen im gesamten Publikationsprozess ermöglichen wird“, schrieben Rüdiger und seine Co-Autorin Tracy Bergstrom, Programmmanagerin für Sammlungen und Infrastruktur bei Ithaka ein Blogbeitrag über den Bericht. „Schreiben, Überprüfen, Bearbeiten und Entdecken werden einfacher und schneller. Sowohl das wissenschaftliche Publizieren als auch die wissenschaftliche Entdeckung werden sich durch KI-gestützte Forschungsmethoden wahrscheinlich beschleunigen.“

Die Befragten waren sich jedoch uneinig darüber, wie diese Effizienzgewinne die Zukunft des wissenschaftlichen Publizierens prägen werden. Einige schlugen vor, dass sie dazu beitragen könnten, dass die Veröffentlichung reibungsloser funktioniert, dass sie aber „seine Dynamik oder seinen Zweck nicht grundlegend verändern“, heißt es in dem Bericht. Andere Befragte zeichneten jedoch ein „viel verschwommeneres Szenario“, in dem generative KI die akademische Forschung in einem solchen Ausmaß verändert, dass sie die in den letzten 30 Jahren entwickelten digitalen Werkzeuge „in den Schatten stellt“.

Eines der beliebtesten Diskussionsthemen waren die Vor- und Nachteile des Einsatzes von KI zur Unterstützung von Peer-Reviews, für die Wissenschaftler seit langem bedauern, dass sie selten dafür bezahlt werden.

„Es hatte komplizierte ethische Implikationen, die Automatisierung zu einem Teil der Peer-Review zu machen“, sagte Rüdiger. „Aber es gab auch eine echte Erkenntnis, dass dies derzeit einer der großen Engpässe im Veröffentlichungsprozess war.“ Generative KI könnte dazu beitragen, diese Verzögerung zu verringern, indem sie Gutachter mit Autoren zusammenbringt und die grundlegende Bearbeitung und Formatierung von Zitaten übernimmt, was „menschlichen Gutachtern ermöglichen würde, sich mehr auf den Inhalt zu konzentrieren“, sagte er.

Aber die Wissenschaft hat den Vorstoß, eine klare Kommunikation rund um generative KI zu entwickeln, noch nicht so aufgegriffen wie andere Branchen.

Irgendwo zwischen 69 und 96 Prozent der biomedizinischen Forscher nutzen generative KI nicht für einen bestimmten Forschungszweck. laut einer anderen Ithaka S+R-Studie im Oktober veröffentlicht. Zusätzlich, Inside Higher Ed’s neueste Umfrage der Chief Technology Officers an Hochschulen und Universitäten haben herausgefunden, dass nur 9 Prozent glauben, dass die Hochschulen auf den Aufstieg der neuen Technologie vorbereitet sind.

Etwa die Hälfte der Befragten Inside Higher Ed Die Umfrage ergab außerdem, dass ihre Institutionen den Einsatz von KI für Einzelfälle betonen, anstatt darüber auf Unternehmensebene nachzudenken.

Das mag zum Teil daran liegen, dass es „wirklich schwierig ist, dezentralisierte, einigermaßen autonome Lehrkräfte und andere Leute innerhalb der Universitäten dazu zu bringen, relativ kongruent zu handeln und sich zu verhalten“, sagte Rüdiger. „Generative KI ist eine Herausforderung auf Unternehmensebene. Damit dies eine produktive Technologie für die Hochschulbildung ist, müssen wir sie als Systemproblem auf institutioneller Ebene und darüber hinaus betrachten.“

Die Verleger denken jedoch bereits „in ziemlich systematischer Weise darüber nach“, sagte er, was wiederum „einen echten Raum und Bedarf für die Kommunikation mit anderen Stakeholdern“ geschaffen habe.

Während Verlage wie Taylor & Francis und Wiley dies bereits getan haben Millionen von Dollar verkauftObwohl sie viele akademische Forschungsdaten zur Ausbildung von Microsoft und anderen proprietären LLMs sammeln, konzentrieren sich die meisten akademischen Forscher immer noch darauf, Beförderungen und Festanstellungen in einem Umfeld zu erhalten, das sie davor warnt, „zu veröffentlichen oder unterzugehen“.

„Unbeabsichtigte Folgen abmildern“

Wenn diese veröffentlichungsfreudigen Forscher jedoch LLMs nutzen, die auf freien, aber fehlerhaften Informationen geschult wurden, besteht das Potenzial, „die Qualität“ zukünftiger Forschung zu „verschlechtern“, sagte Chhavi Chauhan, Direktor für wissenschaftliche Öffentlichkeitsarbeit bei der American Society for Investigative Pathology und Programmmanager für Frauen in AI Accelerate- und Raise-Programmen.

Und das wiederholte Wiedergeben schlechter Daten berge auch die Gefahr, „die Neuheit von Ideen zu gefährden“, sagte sie. „Menschen denken auf kreative Weise über Dinge nach, aber große Sprachmodelle können nur sehen, was bereits da draußen ist. Ihnen fehlt die Kreativität.“

Während große Verlage und die Bundesregierung Leitlinien für den Einsatz generativer KI erstellt haben, müssten diese Pläne, um möglichst effektiv zu sein, auch von akademischen Institutionen unterstützt werden, sagte sie.

In einer Branche mit „keinen klaren Maßstäben“, sagte Chauhan, „ist Zusammenarbeit der Weg, um voranzukommen.“

Und obwohl die Vielfalt der Interessengruppen und Plattformen es möglicherweise schwierig macht, „pauschale Richtlinien“ zu entwickeln, sagte Chauhan, dass zur Wahrung des Vertrauens der Öffentlichkeit in die akademische Forschung zumindest „eine minimale Checkliste erforderlich ist, an die sich jeder halten sollte“.

Wie auch immer das aussieht, fügte sie hinzu, die Leitlinien sollten darauf abzielen, „unbeabsichtigte Folgen abzumildern“ und sich darauf konzentrieren, „was KI für Menschen tun kann“.

Quelle link