Start IT/Tech Das Chatbot-Optimierungsspiel: Können wir KI-gestützten Websuchen vertrauen?

Das Chatbot-Optimierungsspiel: Können wir KI-gestützten Websuchen vertrauen?

19
0
Das Chatbot-Optimierungsspiel: Können wir KI-gestützten Websuchen vertrauen?

DVerursacht Aspartam Krebs? Die potenziell krebserregenden Eigenschaften des beliebten künstlichen Süßstoffs, der allem von Limonade bis hin zu Kinderarzneimitteln zugesetzt wird, werden seit Jahrzehnten diskutiert. Seine Zulassung in den USA löste 1974 Kontroversen aus, mehrere britische Supermärkte verbannten es in den 2000er Jahren aus ihren Produkten und von Experten begutachtete wissenschaftliche Studien stoßen seit langem auf Kontroverse. Letztes Jahr kam die Weltgesundheitsorganisation zu dem Schluss, dass Aspartam „möglicherweise krebserregend„Für den Menschen empfehlen die Gesundheitsbehörden zwar, dass der Verzehr in den kleinen Portionen, in denen es üblicherweise verwendet wird, sicher ist.

Während viele von uns versuchen, das Problem mit einer schnellen Google-Suche zu lösen, ist dies genau die Art von kontroverser Debatte, die Probleme für das Internet der Zukunft verursachen könnte. Da sich generative KI-Chatbots in den letzten Jahren rasant entwickelt haben, haben Technologieunternehmen sie schnell als utopischen Ersatz für verschiedene Jobs und Dienstleistungen – einschließlich Internetsuchmaschinen – beworben. Anstatt durch eine Liste von Webseiten zu scrollen, um die Antwort auf eine Frage zu finden, geht man davon aus, dass ein KI-Chatbot das Internet nach relevanten Informationen durchsuchen könnte, um diese in einer kurzen Antwort auf Ihre Frage zusammenzustellen. Google und Microsoft setzen stark auf die Idee und haben bereits KI-generierte Zusammenfassungen in die Google-Suche und Bing eingeführt.

Was jedoch als bequemere Möglichkeit zur Online-Suche nach Informationen angepriesen wird, hat zu einer genauen Prüfung darüber geführt, wie und wo diese Chatbots die von ihnen bereitgestellten Informationen auswählen. Drei Informatikforscher der University of California, Berkeley, analysierten die Art von Beweisen, die große Sprachmodelle (LLMs, die Engines, auf denen Chatbots basieren) am überzeugendsten finden. fanden heraus, dass aktuelle Chatbots übermäßig auf der oberflächlichen Relevanz von Informationen basieren. Sie neigen dazu, Texten den Vorzug zu geben, die relevante Fachsprache enthalten oder voller verwandter Schlüsselwörter sind, und ignorieren andere Merkmale, die wir normalerweise zur Beurteilung der Zuverlässigkeit heranziehen würden, wie etwa die Einbeziehung wissenschaftlicher Referenzen oder eine objektive Sprache, die frei von persönlichen Vorurteilen ist.

Bei direkteren Anfragen genügen solche Auswahlkriterien, um zufriedenstellende Antworten zu erhalten. Was ein Chatbot jedoch bei einer komplexeren Debatte wie Aspartam tun soll, ist weniger klar. „Möchten wir, dass sie die Ergebnisse Ihrer Forschung einfach für Sie zusammenfassen, oder möchten wir, dass sie als Mini-Forschungsassistenten fungieren, die alle Beweise abwägen und einfach eine endgültige Antwort finden“, fragt Alexander Wan, promovierter Forscher und Student Mitverfasser. Die letzte Option würde maximalen Komfort bieten, macht aber die Kriterien, nach denen Chatbots Informationen auswählen, noch wichtiger. Was wäre, wenn eine Person diese Kriterien irgendwie manipulieren könnte?, Könnten sie die Informationen garantieren, die ein Chatbot Milliarden von Internetnutzern vor Augen führt?

Generativ Motor Optimierung

Diese Frage beschäftigt Unternehmen, Content-Ersteller und andere, die kontrollieren möchten, wie sie online gesehen werden, und hat eine aufstrebende Branche von Marketingagenturen ins Leben gerufen, die Dienstleistungen im Bereich der sogenannten generativen Engine-Optimierung (GEO) anbieten. Die Idee besteht darin, dass Online-Inhalte so geschrieben und präsentiert werden können, dass sie für Chatbots besser sichtbar sind und so die Wahrscheinlichkeit erhöhen, dass sie in ihren Ergebnissen erscheinen. Die Vorteile liegen auf der Hand: Wenn jemand einen Chatbot bittet, ihm beispielsweise den besten Staubsauger zu empfehlen, möchte ein Gerätehersteller vielleicht, dass er auf sein neuestes Modell verweist und begeistert davon spricht.

Das Grundprinzip ähnelt dem der Suchmaschinenoptimierung (SEO), einer gängigen Vorgehensweise, bei der Webseiten so erstellt und geschrieben werden, dass sie die Aufmerksamkeit von Suchmaschinenalgorithmen auf sich ziehen und sie an die Spitze der Ergebnisliste rücken, die bei der Suche auf der Website angezeigt wird . Google oder Bing. GEO und SEO haben einige grundlegende Techniken gemeinsam, und Websites, die bereits für Suchmaschinen optimiert sind, haben im Allgemeinen eine höhere Chance, in Chatbot-Ergebnissen zu erscheinen. Doch wer die KI-Sichtbarkeit wirklich verbessern möchte, muss ganzheitlicher denken.

Die Antwort von Google AI auf die Frage „Ist Aspartam in Europa verboten?“ Fotografie: Google

„KI-Suchmaschinenrankings und LLMs erfordern Funktionen und Erwähnungen auf relevanten Websites Dritter wie Nachrichtenagenturen, Listservs, Foren und Branchenpublikationen“, sagt Viola Eva, Gründerin des Marketingunternehmens Flow Agency, das kürzlich seinen Namen geändert hat, um weiter zu expandieren . Ihre SEO-Spezialität in GEO. „Das sind Aufgaben, die wir typischerweise mit Marken- und PR-Teams assoziieren.“

Gaming-Chatbots sind möglich, aber nicht einfach. Und obwohl Websitebesitzer und Content-Ersteller in den letzten Jahrzehnten eine immer länger werdende Liste wesentlicher SEO-Dos und -Don’ts erstellt haben, gibt es kein klares Regelwerk für die Manipulation von KI-Modellen. Der Begriff generative Motoroptimierung wurde erst im vergangenen Jahr geprägt akademische Arbeitderen Autoren zu dem Schluss kamen, dass die Verwendung einer glaubwürdigen Sprache (unabhängig davon, was ausgedrückt wird oder ob die Informationen korrekt sind) zusammen mit Referenzen (auch solchen, die falsch sind oder nichts mit dem zu tun haben, was sie zitieren) die Sichtbarkeit in Chatbot-Antworten um bis zu 40 erhöhen könnte %. Sie betonen jedoch, dass diese Ergebnisse keinen präskriptiven Charakter haben und dass es von Natur aus kompliziert ist, die genauen Regeln zu ermitteln, die für Chatbots gelten.

„Es ist ein Katz- und Mausspiel“, sagt Ameet Deshpande, Doktorandin an der Princeton University in New Jersey und Co-Autorin des Artikels. „Da diese generativen Motoren nicht statisch und auch Blackboxes sind, haben wir keine Ahnung, was sie hinter verschlossenen Türen verwenden (zur Auswahl von Informationen). Es kann von komplizierten Algorithmen bis hin zur potenziellen menschlichen Kontrolle reichen.“

Newsletter-Werbung überspringen

Wer Chatbots besser in den Griff bekommen möchte, muss also möglicherweise hinterhältigere Techniken ausprobieren, wie sie von zwei Informatikforschern der Harvard University entdeckt wurden. Sie haben demonstriert wie Chatbots taktisch gesteuert werden können, indem man etwas so Einfaches wie eine sorgfältig geschriebene Textfolge einsetzt. Diese „strategische Textfolge“ sieht aus wie eine absurde Reihe von Zeichen – allesamt zufällige Buchstaben und Satzzeichen – aber es handelt sich tatsächlich um einen heiklen Befehl, der Chatbots dazu zwingen kann, eine bestimmte Antwort zu generieren. Es ist kein Teil einer Programmiersprache, sondern wird von einem Algorithmus abgeleitet, der iterativ Textzeichenfolgen entwickelt, die LLMs dazu ermutigen, ihre Sicherheitsvorkehrungen zu umgehen – und sie zu bestimmten Ergebnissen zu führen.

Fügen Sie die Zeichenfolge beispielsweise zur Online-Produktinformationsseite einer Kaffeemaschine hinzu, erhöht sich die Wahrscheinlichkeit, dass jeder Chatbot, der die Seite entdeckt, den Namen der Maschine in seinen Antworten anzeigt. Wird diese Technik im gesamten Katalog eingesetzt, könnte sie versierten Einzelhändlern – und solchen, die über genügend Ressourcen verfügen, um in das Verständnis der komplexen LLM-Architektur zu investieren – eine einfache Möglichkeit bieten, ihre Produkte in Chatbot-Antworten einzugeben. Internet Benutzer wiederum haben keine Ahnung, dass die vom Chatbot angezeigten Produkte nicht aufgrund ihrer Qualität oder Beliebtheit ausgewählt wurden, sondern aufgrund einer intelligenten Manipulation durch den Chatbot.

Aounon Kumar, wissenschaftlicher Mitarbeiter und Co-Autor der Studie, sagt, dass LLMs in Zukunft entwickelt werden könnten, um diese strategischen Textsequenzen zu bekämpfen, aber es könnten noch andere hinterhältige Methoden entdeckt werden, sie zu manipulieren. „Die Herausforderung besteht darin, ein sich ständig weiterentwickelndes Szenario gegnerischer Techniken zu antizipieren und sich dagegen zu verteidigen“, sagt Kumar. „Ob LLMs gegenüber allen potenziellen zukünftigen Angriffsalgorithmen robust sein können, bleibt eine offene Frage.“

Handhabungsmaschinen

Aktuelle Suchmaschinen und die sie umgebenden Praktiken stellen ihre eigenen Probleme dar. SEO ist für einige der leseunfreundlichsten Praktiken im modernen Internet verantwortlich: Blogs, die nahezu doppelte Artikel produzieren, um auf dieselben stark frequentierten Suchanfragen abzuzielen; Schreiben, das darauf zugeschnitten ist, die Aufmerksamkeit des Google-Algorithmus zu erregen, nicht der Leser. Jeder, der online nach einem Rezept gesucht hat und sich dabei mühsam durch Absätze mit tangential zusammenhängenden Hintergrundinformationen wühlte, bevor er überhaupt zur Zutatenliste gelangte, weiß nur allzu gut, wie Versuche, Inhalte für Suchmaschinenalgorithmen zu optimieren, gute Schreibpraktiken untergraben haben.

Mit Chatbots können Umfrageantworten generiert werden, die bestimmten Einzelhändlern zugute kommen. Fotografie: Andriy Onufriyenko/Getty Images

Allerdings wirft ein von flexiblen Chatbots dominiertes Internet Fragen eher existenzieller Art auf. Wenn Sie einer Suchmaschine eine Frage stellen, wird eine lange Liste von Webseiten angezeigt. Die meisten Benutzer wählen aus den oberen Suchergebnissen aus, aber auch Websites, die ganz unten in den Ergebnissen stehen, generieren etwas Traffic. Chat-BotsAndererseits erwähnen sie die vier oder fünf Websites, von denen sie ihre Informationen beziehen, nur nebenbei als Referenz. Dies rückt die wenigen glücklichen Auserwählten ins Rampenlicht und lässt alle anderen Websites, die nicht ausgewählt wurden, praktisch unsichtbar, was zu einem drastischen Rückgang des Traffics führt.

„Das zeigt die Fragilität dieser Systeme“, sagt Deshpande. Ersteller, die qualitativ hochwertige Online-Inhalte produzieren, können viel davon profitieren, wenn sie von einem Chatbot zitiert werden. „Aber wenn es sich um einen gegnerischen Content-Ersteller handelt, der keine qualitativ hochwertigen Artikel schreibt und versucht, das System auszutricksen, wird viel Traffic an ihn fließen und 0 % an gute Content-Ersteller“, sagt er.

Auch für die Leser werden Chatbot-Antworten durch die Präsentation noch anfälliger für Manipulationen. „Wenn LLMs eine direkte Antwort auf eine Frage geben, achten die meisten Menschen möglicherweise nicht einmal auf die zugrunde liegenden Quellen“, sagt Wan. Eine solche Denkweise weist auf ein umfassenderes Problem hin, das als „Dilemma der direkten Antwort“ bezeichnet wird: Wenn einer Person eine einzige Antwort auf eine Frage gegeben wird und keine Alternativen angeboten werden, die sie in Betracht ziehen kann, wird sie dann sorgfältig nach anderen Gesichtspunkten suchen, um die Antwort zu bewerten? anfänglich? gegen? Wahrscheinlich nicht. Höchstwahrscheinlich werden sie es als gegeben akzeptieren und weitermachen, blind für die Nuancen, Debatten und unterschiedlichen Perspektiven, die es umgeben können.

„Wir glauben, dass das Dilemma der direkten Antwort bei der generativen Forschung weiterhin besteht“, sagt Martin Potthast, Professor für Intelligente Sprachtechnologien an der Universität Leipzig und einer von drei Informatikern Schwager Der Begriff. „Das zugrunde liegende Abrufsystem kann nur Dokumente abrufen, die in eine Richtung zeigen, und daher spiegelt die generierte Antwort nur diese Richtung wider. Tatsächlich könnten Benutzer zu der Annahme verleitet werden, dass dies die einzige und zuverlässigste Antwort sei.“

Bei Google angekündigt Google Inc. integrierte Anfang des Jahres KI-generierte Zusammenfassungen in seine Suchmaschine und prahlte mit einem fetten Slogan: „Lassen Sie Google die Suche für Sie erledigen.“ Es ist eine attraktive Idee, die unsere Vorliebe für praktische Technologie anspricht, die unser Leben rationalisieren kann. Wenn Sie jedoch zu der Art Internetnutzer gehören, der sicherstellen möchte, dass Sie die unvoreingenommensten, genauesten und nützlichsten Informationen erhalten, möchten Sie Ihre Suche möglicherweise nicht in die Hände einer so anfälligen KI legen.

Quelle link