Der gewählte Präsident Donald Trump hat sich mit Unternehmern aus dem Silicon Valley umgeben – darunter Elon Musk, Marc Andreessen und David Sacks – die ihn nun in Technologie- und anderen Fragen beraten.
Wenn es um KI geht, ist dieses Team von Technologen sehr auf die Notwendigkeit einer schnellen Entwicklung und Einführung von KI in den gesamten USA ausgerichtet. Es gibt jedoch ein KI-Sicherheitsproblem, das diese Gruppe häufig anspricht: die Gefahr einer KI-„Zensur“ durch große Unternehmen. Technologie.
Trumps Berater im Silicon Valley könnten KI-Chatbot-Antworten zu einem neuen Schlachtfeld für Konservative machen, um ihren anhaltenden Kulturkrieg mit Technologieunternehmen zu führen.
KI-Zensur ist ein Begriff, der beschreibt, wie Technologieunternehmen mit den Antworten ihrer KI-Chatbots den Finger auf die Waage legen, um bestimmte Richtlinien einzuhalten oder ihre eigenen zu fördern. Andere bezeichnen dies möglicherweise als Inhaltsmoderation, was sich oft auf dasselbe bezieht, aber eine ganz andere Konnotation hat. Genau wie soziale Medien und Suchalgorithmen ist es ein sich ständig veränderndes Ziel, korrekte KI-Antworten auf Live-Nachrichten und kontroverse Themen zu erhalten.
Im letzten Jahrzehnt haben Konservative Big Tech wiederholt dafür kritisiert, dass sie sich dem Druck der Regierung beugten und ihre Social-Media-Plattformen und -Dienste zensierten. Allerdings haben einige Technologiemanager begonnen, ihre Positionen in der Öffentlichkeit abzuschwächen. Zum Beispiel im Vorfeld der Wahlen 2024 Meta-CEO Mark Zuckerberg entschuldigte sich beim Kongress dafür, dass er dem Druck der Biden-Regierung nachgegeben hat, Inhalte im Zusammenhang mit COVID-19 aggressiv zu moderieren. Kurz darauf sagte der CEO von Meta, er habe einen „20-jährigen politischen Fehler“ begangen, indem er zu viel Verantwortung für Probleme übernommen habe, die außerhalb der Kontrolle seines Unternehmens lägen – und sagte er würde diese Fehler nicht noch einmal machen.
Laut Trumps Technologieberatern stellen KI-Chatbots jedoch eine noch größere Bedrohung für die freie Meinungsäußerung dar und stellen möglicherweise eine wirksamere Möglichkeit dar, die Meinungsäußerung zu kontrollieren. Anstatt einen Suchalgorithmus oder Feed auf ein gewünschtes Ergebnis auszurichten, wie etwa die Herabstufung von Fehlinformationen über Impfstoffe, können Technologieunternehmen Ihnen jetzt einfach eine einzige, klare Antwort geben, die diese nicht enthält.
In den letzten Monaten haben sich Musk, Andreessen und Sacks in Podcasts, Interviews und Social-Media-Beiträgen gegen die KI-Zensur ausgesprochen. Obwohl wir nicht genau wissen, wie sie Trump beraten, könnten ihre öffentlich geäußerten Überzeugungen Aufschluss über die Gespräche geben, die sie hinter verschlossenen Türen in Washington, D.C. und Mar-a-Lago führen.
„Das ist meine Überzeugung und das, was ich den Menschen in Washington zu sagen versucht habe: Wenn man glaubt, dass die Zensur in den sozialen Medien schlecht ist, hat (KI) das Potenzial, tausendmal schlimmer zu sein“, sagte der Mitbegründer von a16z. Marc Andreessen in a Aktuelles Interview mit Joe Rogan. „Wenn Sie die ultimative dystopische Welt erschaffen wollten, hätten Sie eine Welt, in der alles von einer KI gesteuert wird, die auf Lügen programmiert ist“, sagte Andreessen in einem anderen Aktuelles Interview mit Bari Weiss.
Andreessen verriet Weiss außerdem, dass er seit der Wahl etwa die Hälfte seiner Zeit mit Trumps Team verbracht habe, um Technologie- und Geschäftsberatung anzubieten.
„(Andreessen) hat den dystopischen Weg erklärt, auf dem wir uns mit KI befinden“, sagte David Sacks, ehemaliger COO von PayPal und Mitbegründer von Craft Ventures, kürzlich in einem Bericht Beitrag auf X bald darauf Er wurde Trumps KI und Kryptozar genannt. „Aber die Zeitachse hat sich geteilt und wir sind jetzt auf einem anderen Weg.“
Bei All In – dem beliebten Podcast, den Sacks zusammen mit anderen einflussreichen Risikokapitalgebern moderiert – kritisierte Trumps neuer KI-Berater Google und OpenAI wiederholt dafür, dass sie, wie die Moderatoren der Sendung beschreiben, KI-Chatbots zu politischer Korrektheit zwingen.
„Eine der anfänglichen Bedenken gegenüber ChatGPT war, dass es für den Live-Betrieb programmiert war und den Leuten zu vielen Dingen keine wirklichen Antworten gab. Zensur wurde in die Antworten eingebaut“, sagte Sacks eine Folge von All In vom November 2023.
Trotz der Behauptungen von Sacks gibt sogar Elon Musk zu, dass der Chatbot von xAI um ein Vielfaches leistungsfähiger ist politisch korrekt als ihm lieb ist. Das liegt nicht daran, dass Grok „auf Wachsamkeit programmiert“ war, sondern eher an der Realität des KI-Trainings im offenen Internet. Allerdings macht Sacks jeden Tag deutlicher, dass ihm die „Wahrhaftigkeit der KI“ am Herzen liegt.
„So findet man Black George Washington bei Google“
Der am häufigsten genannte Fall von KI-Zensur ereignete sich bei der Generierung von Bildern durch den KI-Bildgenerator Gemini von Google gemischtrassige Bilder für Beratungen wie „US-Gründerväter“ und „Deutsche Soldaten im Zweiten Weltkrieg“, die offensichtlich unzutreffend waren.
Es gibt aber auch andere Beispiele dafür, dass Unternehmen bestimmte Ergebnisse beeinflussen. In jüngerer Zeit haben Benutzer das entdeckt ChatGPT beantwortet einfach keine Fragen zu bestimmten Namenund OpenAI gab zu, dass mindestens einer dieser Namen interne Datenschutztools auslöste. An einem anderen Punkt weigerten sich die KI-Chatbots von Google und Microsoft zu sagen, wer hat die US-Wahlen 2020 gewonnen. Bei den Wahlen 2024 weigerten sich fast alle KI-Systeme, Fragen zu den Wahlergebnissen zu beantworten, außer Perplexity und Grok.
In einigen dieser Beispiele argumentierten Technologieunternehmen, dass sie eine sichere und verantwortungsvolle Entscheidung für ihre Benutzer trafen. In manchen Fällen mag das zutreffen – Grok halluziniert von den Ergebnissen der Wahl 2024, bevor die Stimmen überhaupt gezählt wurden.
Aber der Gemini-Vorfall stach heraus; Dies führte dazu, dass Google Geminis Fähigkeit deaktivierte, Bilder von Menschen zu generieren – etwas, was die kostenlose Version von Gemini immer noch nicht kann. Google bezeichnete diesen Vorfall als Bug und entschuldigte sich dafür, dass er „das Ziel verfehlt“ habe.
Andreessen und Sacks sehen das nicht so. Beide Risikokapitalgeber sagten, Google habe das Ziel nicht verfehlt, sondern eher offensichtlich getroffen. Sie hielten es für einen entscheidenden Moment für Google, seine Maske abzulegen.
„Die Leute, die Googles KI betreiben, schmuggeln ihre Vorlieben und Vorurteile ein, und diese Vorurteile sind äußerst liberal“, sagte Sacks eine Folge von All In ab Februar 2024 als Reaktion auf den Gemini-Vorfall. „Glaube ich, dass sie Vorurteile abbauen werden? Nein, sie werden es subtiler machen. Das finde ich beunruhigend.“
„Es ist zu 100 % Absicht; So bekommt man Black George Washington auf Google“, sagte Andreessen das aktuelle Interview mit WeissIch erinnere mich an den Gemini-Vorfall. „Das passt direkt zu Elons Argumentation, die darin besteht, dass man der KI im Kern beibringen muss, zu lügen (d. h. Zwillings-ähnliche Reaktionen hervorzurufen).“
Wie Andreessen erwähnt, hat sich Elon Musk lautstark gegen „aufgeweckte KI-Chatbots“ ausgesprochen. Musk gründete sein gut finanziertes KI-Startup xAI ursprünglich im Jahr 2023, um ChatGPT von OpenAI entgegenzuwirken, das der Milliardär damals nannte mit dem „Awake-Mind-Virus“ infiziert. Letztendlich entwickelte er Grok, einen KI-Chatbot mit deutlich weniger Sicherheitsmaßnahmen als andere führende Chatbots.
„Ich werde etwas starten, das Sie TruthGPT oder maximal wahrheitssuchende KI nennen, die versucht, die Natur des Universums zu verstehen“, sagte Musk. in einem Interview mit Fox ab 2023.
Als Musk Grok auf den Markt brachte, lobte Sacks die Bemühungen: „So etwas wie Grok zu haben, wird – zumindest – OpenAI ehrlich und ChatGPT ehrlich halten“, sagte Trumps KI-Zar in einer Erklärung. November 2023 Alles in Folge.
Jetzt tut Musk mehr als nur, um ChatGPT ehrlich zu halten. Er hat hat über 12 Milliarden US-Dollar gesammelt, um xAI zu finanzieren und mit OpenAI konkurrieren. Er verklagt außerdem Sam Altmans Startup und Microsoft. Dies könnte möglicherweise den gewinnorientierten Übergang von OpenAI stoppen.
Musks Einfluss auf konservative Regierungsvertreter hat sich bereits in anderen Bereichen bewährt. Der texanische Generalstaatsanwalt Ken Paxton ermittelt gegen eine Gruppe von Werbetreibenden der angeblich Elon Musks X boykottierte. Musk hat dieselbe Werbegruppe bereits verklagt, und seitdem haben einige der Unternehmen dies getan Werbung wurde wieder aufgenommen auf Ihrer Plattform.
Es ist unklar, was Trump und andere Republikaner tun könnten, wenn sie OpenAI oder Google wirklich wegen KI-Zensur untersuchen wollten. Es könnte sich um Untersuchungen spezialisierter Behörden, rechtliche Anfechtungen oder vielleicht einfach nur um ein kulturelles Problem handeln, auf dem Trump in den nächsten vier Jahren bestehen kann. Unabhängig vom weiteren Weg nehmen Trumps Berater im Silicon Valley heute kein Blatt vor den Mund zu diesem Thema.
„Elon hat mit den Twitter-Archiven eine privatisierte Version dessen erstellt, was jetzt im Großen und Ganzen geschehen muss“, sagte Andreessen für Weisssich beziehend Musks Twitter-Zensurvorwürfe. „Wir, das amerikanische Volk, müssen herausfinden, was die ganze Zeit passiert ist, insbesondere über diese Verflechtung von Regierungsdruck und Zensur … Es muss Konsequenzen geben.“