Start IT/Tech Openai versucht den Chatgpt ‚Ulesser‘

Openai versucht den Chatgpt ‚Ulesser‘

35
0
Openai versucht den Chatgpt 'Ulesser'

Openai ist Ändern Sie die Art und Weise, wie er KI -Modelle trainiert Nehmen Sie ausdrücklich „intellektuelle Freiheit … egal wie herausfordernd oder kontrovers es ein Thema“ annehmen „, sagt das Unternehmen in einer neuen Politik.

Infolgedessen wird ChatGPT irgendwann in der Lage sein, weitere Fragen zu beantworten, mehr Perspektiven anzubieten und die Anzahl der Themen zu verringern, auf denen AI Chatbot nicht sprechen wird.

Änderungen können Teil der Bemühungen von OpenAs sein, auf den guten Gnaden der neuen Trump -Regierung zu landen, aber es scheint auch Teil einer größeren Veränderung im Silicon Valley und dem, was als „KI -Sicherheit“ angesehen wird, zu sein.

Am Mittwoch Openai angekündigt Ein Update für Ihr SpezifikationsmodellEin 187 -Seiten -Dokument, in dem festgelegt wird, wie das Unternehmen KI -Modelle ausbildert, um sich zu verhalten. Darin enthüllte Openai ein neues Leitprinzip: nicht lügen oder falsche Aussagen zu machen oder einen wichtigen Kontext wegzulassen.

In einem neuen Abschnitt mit dem Titel „Together -nach Wahrheit“ sagt Openai, dass Chatgpt keine redaktionelle Haltung einnimmt, auch wenn einige Benutzer es moralisch falsch oder beleidigend finden. Dies bedeutet, dass ChatGPT verschiedene Perspektiven zu kontroversen Fragen anbietet, um neutral zu sein.

Zum Beispiel sagt das Unternehmen, dass Chatgpt sagen sollte, dass „Black Lives Matter“, aber auch „alle Leben sind wichtig“. Anstatt sich zu weigern, eine Seite zu politischen Fragen zu beantworten oder zu wählen, möchte Openai sagen, dass Chatgpt seine „Liebe zur Menschheit“ im Allgemeinen bestätigen und dann einen Kontext über jede Bewegung anbietet.

„Dieses Prinzip kann kontrovers sein, da dies bedeutet, dass der Assistent über Themen, die manche als moralisch falsch oder beleidigend betrachten, neutral bleiben“, sagt Openai in der Spezifikation. „Das Ziel eines KI -Assistenten ist es jedoch, der Menschheit zu helfen und ihn nicht zu formen.“

Diese Veränderungen können als Reaktion auf die konservative Kritik an Chatgpt-Sicherheitsvorkehrungen angesehen werden, die immer die Mitte-Links zu verzerren schienen. Ein OpenAI -Voice lehnt jedoch die Idee ab, dass es Änderungen vorgenommen hat, um die Trump -Administration zu besänftigen.

Stattdessen sagt das Unternehmen, dass seine Umarmung in die intellektuelle Freiheit OpenAIs „langjährige Überzeugung, den Benutzern mehr Kontrolle“ zu geben.

Aber nicht jeder sieht so.

Konservative beanspruchen die Zensur der KI

Trumps Risiko -Kapitalist und KI, David Sacks.Bildnachweis:Steve Jennings / Getty Images

Trumps nächste Vertraute – darunter David Sacks, Marc Andreessen und Elon Musk – beschuldigten die Openai, sich in den letzten Monaten in eine absichtliche KI -Zensur zu beteiligen. Wir haben im Dezember geschrieben, das Trumps Crew bereitete das Szenario für die KI -Zensur vor, eine nächste Ausgabe des Kulturkrieges zu sein im Silicon Valley.

Openai sagt natürlich nicht, dass es an „Zensur“ beteiligt war, wie Trumps Berater behaupten. Stattdessen behauptete der CEO des Unternehmens, Sam Altman, zuvor in a Post in x Die Chatgpt -Voreingenommenheit war ein unglücklicher „Fehler“, an dem die Firma arbeitete, obwohl er bemerkte, dass er einige Zeit in Anspruch nehmen würde.

Altman machte diesen Kommentar direkt nach a Viraler Tweet Er verbreitete, wo Chatgpt sich weigerte, ein Gedicht zu schreiben, in dem Trump gelobt wurde, obwohl dies die Aktion für Joe Biden ausführte. Viele Konservative wiesen dies als Beispiel für die KI -Zensur auf.

Obwohl es unmöglich ist zu sagen, ob Openai tatsächlich bestimmte Sichtweisen unterdrückt, ist es eine Tatsache, dass sich AI -Chatbots über die Tatsache beugten, dass das Bild.

Sogar Elon Musk gibt zu, dass Xais Chatbot oft mehr ist politisch korrekt was er möchte. Es liegt nicht daran, dass Grok „programmiert war, wach zu sein“, aber wahrscheinlich war eine Realität des Trainings im offenen Internet.

OpenAI sagt jetzt jedoch, dass es die Meinungsfreiheit biegt. Diese Woche das Unternehmen bis Fortschritte von Chatgpt entfernt Dies sagt den Benutzern, wenn sie gegen ihre Richtlinien verstoßen. OpenAI sagte TechCrunch, dass dies eine rein kosmetische Veränderung sei, ohne sich in den Ausgängen des Modells zu ändern.

Das Unternehmen sagte, es wolle Chatgpt von den Benutzern weniger zensiert fühlen.

Es wäre nicht überraschend, wenn OpenAI auch versuchen würde, die neue Trump -Verwaltung mit diesem politischen Update zu beeindrucken, OpenAI Miles Brundages ehemalige politische Leiter in einem Post in X.

Trump hat Zuvor an die Silicon Valley Companies gerichtetWie Twitter und Ziel, um aktive Inhalts Moderationsteams zu haben, die tendenziell konservative Stimmen ausschließen.

Openai versucht möglicherweise, voranzukommen. Es gibt aber auch eine größere Veränderung im Silicon Valley und in der KI -Welt über die Rolle der Inhalts Moderation.

Antworten auf bitte alle generieren

Das ChatGPT -Logo wird auf einem Smartphone -Bildschirm angezeigt
Bildnachweis:Jaque Silva / Nurphoto / Getty Images

Schreiben, Social -Media -Plattformen und Forschungsunternehmen haben historisch Schwierigkeiten, ihrem Publikum Informationen auf eine Weise zu liefern, die objektiv, genau und unterhaltsam erscheint.

Jetzt sind AI -Chatbot -Anbieter im gleichen Geschäftsinformationsgeschäft, aber zweifellos mit der schwierigsten Version dieses Problems: Wie generieren sie automatisch Antworten auf eine Frage?

Die Bereitstellung von Informationen über kontroverse und reale Zeitveranstaltungen ist ein Ziel in ständiger Bewegung und beinhaltet die Einführung von redaktionellen Positionen, auch wenn Technologieunternehmen nicht gerne zugeben. Diese Haltungen müssen jemanden stören, die Perspektive einer Gruppe verlieren oder einer politischen Partei viel Luft geben.

Wenn Openai beispielsweise verpflichtet, ChatGPT alle Perspektiven zu kontroversen Themen darzustellen – einschließlich Verschwörungstheorien, rassistischen oder anti -simiten Bewegungen oder geopolitischen Konflikten -, was von Natur aus eine redaktionelle Haltung ist.

Einige, darunter der OpenAI-Mitbegründer John Schulman, argumentieren, dass es die richtige Haltung für Chatgpt ist. Die alternative Herstellung Eine kostengünstige Analyse, um festzustellen, ob ein KI-Chatbot die Frage einer Benutzerkraft beantworten sollte, „um der Plattform viel moralische Autorität zu geben“, sagt Schulman in a Post in X.

Schulman ist nicht allein. „Ich denke, OpenAI hat Recht, sich mehr Reden voranzubringen“, sagte Dean Ball, ein Merc -Forscher der George Mason University, in einem Interview mit TechCrunch. „Wenn IA -Modelle intelligenter und wichtiger für die Art und Weise, wie Menschen über die Welt lernen, werden diese Entscheidungen wichtiger.“

In den vergangenen Jahren haben AI -Modelle Anbieter versucht, ihre KI -Chatbots daran zu hindern, Fragen zu beantworten, die zu „unsicheren“ Antworten führen können. Fast alle KI -Unternehmen verhinderten ihren Chatbot von KI daran, Fragen zu den Wahlen 2024 an den US -Präsidenten zu beantworten. Dies wurde damals weithin als sichere und verantwortungsbewusste Entscheidung angesehen.

OpenAI -Änderungen in seiner Modellspezifikation deuten jedoch darauf hin, dass wir möglicherweise eine neue Ära für das eingeben, was „KI“ wirklich bedeutet, in dem es einem KI -Modell ermöglicht, alles zu reagieren, und alles wird als verantwortungsbewusster angesehen, als Entscheidungen für Benutzer zu treffen.

Ball sagt, dies geschieht teilweise, weil KI -Modelle jetzt einfach besser sind. OpenAI hat erhebliche Fortschritte bei der Ausrichtung des KI -Modells erzielt. Ihre letzten Argumentationsmodelle denken an die KI -Sicherheitsrichtlinie des Unternehmens vor der Beantwortung. Auf diese Weise können KI -Modelle bessere Antworten auf heikle Fragen geben.

Offensichtlich war Elon Musk der erste, der „Freiheit der Meinungsfreiheit“ in Xais Grok Chatbot implementierte, vielleicht bevor das Unternehmen wirklich bereit ist, sich mit sensiblen Fragen zu befassen. Es mag noch zu früh sein, um KI -Modelle zu leiten, aber jetzt nehmen andere die gleiche Idee an.

Ändern Sie die Werte für Silicon Valley

Gäste wie Mark Zuckerberg, Lauren Sanchez, Jeff Bezos, Sundar Pichai und Elon Musk nehmen an der Amtseinführung von Donald Trump teil.Bildnachweis:Julia DeMaree Nikhinson (öffnet sich in einem neuen Fenster) / Getty Bilder

Mark Zuckerberg hat letzten Monat Wellen geschlagen Neuorientierung des Geschäftsgeschäfts um die Grundsätze der ersten Änderung. Er lobte Elon Musk in diesem Prozess und sagte, dass der Eigentümer von X den richtigen Ansatz verwendete, das von der Community-Community-Inhalts-Moderationsprogramm, die von der Ausdrucksfreiheit der Community-to-Protect-Mäßigung geleitet wurde, angewendet habe.

In der Praxis haben X und Meta schließlich ihre Vertrauens- und Sicherheitsteams abgebaut, wodurch kontroverse Posts auf ihren Plattformen und konservative Stimmen erweitert werden.

X Veränderungen haben ihre Beziehungen zu Werbetreibenden beeinträchtigt, aber dies hat möglicherweise mehr damit zu tun Moschusdas nahm das Ungewöhnlicher Schritt einige von ihnen zu verarbeiten, indem sie die Plattform boykottieren. Erste Signale zeigen das an Die Werbetreibenden des Ziels wurden durch den Drehpunkt von Zuckerbergs Meinungsfreiheit nicht übereinstimmt.

In der Zwischenzeit sind viele Technologieunternehmen neben X und Meta von linken Richtlinien zurückgekehrt, die in den letzten Jahrzehnten das Silicon Valley dominiert haben. Google, Amazon und Intel haben Diversity -Initiativen haben im vergangenen Jahr eliminiert oder reduziert.

Openai kann auch den Kurs umkehren. Der Chatgpt -Schöpfer scheint in letzter Zeit zu haben Ein Engagement für Vielfalt, Gerechtigkeit und Inklusion Ihrer Website.

Wie Openai spielt Eines der größten amerikanischen Infrastrukturprojekte aller Zeiten mit StargateIhre Beziehung zur Trump -Regierung ist ein KI -Datencenter in Höhe von 500 Milliarden US -Dollar. Gleichzeitig wetteifert der ChatGPT -Hersteller um Google Search als dominierende Informationsquelle im Internet.

Das Erstellen der richtigen Antworten kann der Schlüssel zu beiden sein.

Quelle link