Start IT/Tech Wer möchte eine KI ähnlich „Ihrer“, die Fehler macht?

Wer möchte eine KI ähnlich „Ihrer“, die Fehler macht?

7
0
Annoyed frustrated woman having problem with not working mobile phone

Hallo zusammen, willkommen zum regelmäßigen KI-Newsletter von TechCrunch. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang haben möchten, Trennen Sie den Link und melden Sie sich hier an.

Letzte Woche wurde OpenAI veröffentlicht Erweiterter Sprachmodus mit Visiondas Echtzeitvideos einspeist GPT-ChatDadurch kann der Chatbot über die Grenzen seiner Anwendungsschicht hinaus „sehen“. Die Prämisse ist, dass dieser Bot durch die stärkere Kontexterkennung von ChatGPT in der Lage sein wird, natürlicher und intuitiver zu reagieren.

Aber als ich es das erste Mal versuchte, hat er mich angelogen.

„Diese Couch sieht bequem aus!“ Sagte ChatGPT, als ich mein Telefon hochhielt und den Bot bat, unser Wohnzimmer zu beschreiben. Ich hatte die Ottomane mit einem Sofa verwechselt.

„Mein Fehler!“ ChatGPT sagte, als ich das Problem behoben habe. „Nun, es scheint immer noch ein gemütlicher Raum zu sein.“

Seit der ersten OpenAI ist fast ein Jahr vergangen demonstriert Erweiterter Sprachmodus mit Vision, den das Unternehmen anbietet freigegeben als Schritt in Richtung KI, wie in Spike Jonzes Film „Her“ dargestellt. So wie OpenAI es verkaufte, würde der Advanced Voice Mode with Vision ChatGPT Superkräfte verleihen – es dem Bot ermöglichen, skizzenhafte mathematische Probleme zu lösen, Emotionen zu lesen und darauf zu reagieren liebevolle Briefe.

Haben Sie das alles erreicht? Mehr oder weniger. Aber der Vision Enhanced Voice Mode hat das größte Problem von ChatGPT nicht gelöst: die Zuverlässigkeit. Tatsächlich macht die Funktion den Bot aus Halluzinationen offensichtlicher.

Irgendwann, neugierig, ob der Vision Enhanced Voice Mode ChatGPT dabei helfen könnte, Modetipps anzubieten, schaltete ich ihn ein und bat ChatGPT, ein Outfit von mir zu bewerten. Zum Glück tat er es. Aber obwohl der Bot Meinungen zu meiner Kombination aus olivgrünem Hemd und Jeans abgab, übersah er immer die braune Jacke, die ich trug.

Ich bin nicht der Einzige, der Ausrutscher erlebt hat.

Als OpenAI-Präsident Greg Brockman Anfang des Monats in „60 Minutes“ den Advanced Voice Mode with Vision vorführte, machte ChatGPT einen Fehler bei einem Geometrieproblem. Bei der Berechnung der Fläche eines Dreiecks falsch identifiziert die Höhe des Dreiecks.

Meine Frage lautet also: Was nützt eine „ihr“-ähnliche KI, wenn man ihr nicht vertrauen kann?

Mit jeder Fehlfunktion von ChatGPT verspürte ich immer weniger Lust, in die Tasche zu greifen, mein Telefon zu entsperren, ChatGPT zu starten, den erweiterten Sprachmodus zu öffnen und Vision zu aktivieren – eine komplizierte Abfolge von Schritten unter den besten Umständen. Mit seinem hellen und fröhlichen Auftreten ist der Enhanced Voice Mode eindeutig darauf ausgelegt, Vertrauen aufzubauen. Wenn dieses implizite Versprechen nicht eingehalten wird, ist das schockierend – und enttäuschend.

Vielleicht kann OpenAI eines Tages das Problem der Halluzinationen ein für alle Mal lösen. Bis dahin sitzen wir mit einem Bot fest, der die Welt durch Querverbindungen sieht. Und ehrlich gesagt bin ich mir nicht sicher, wer das wollen würde.

Nachricht

Bildnachweis:Olly Curtis/Futuro/Getty Images

Die 12 Tage „Schiffe“ von OpenAI gehen weiter: OpenAI wird bis zum 20. Dezember jeden Tag neue Produkte veröffentlichen. Hier ist es eine Zusammenfassung aller Ankündigungen, die wir regelmäßig aktualisieren.

YouTube ermöglicht es Erstellern, Folgendes zu deaktivieren: YouTube bietet YouTubern mehr Möglichkeiten, wie Dritte ihre Inhalte zum Trainieren ihrer KI-Modelle nutzen können. Ersteller und Rechteinhaber können YouTube melden, wenn sie bestimmten Unternehmen erlauben, Models für ihre Clips zu schulen.

Meta-Datenbrillen erhalten Updates: Metas Ray-Ban Meta Datenbrille hat gewonnen mehrere neue KI-basierte Updateseinschließlich der Möglichkeit, ein fortlaufendes Gespräch mit der KI von Meta zu führen und zwischen Sprachen zu übersetzen.

DeepMinds Antwort an Sora: Google DeepMind, Googles wichtigstes KI-Forschungslabor, will OpenAI bei der Videogenerierung schlagen. Am Montag kündigte DeepMind Veo 2 an, eine Video-KI der nächsten Generation, die Clips mit einer Länge von mehr als zwei Minuten und Auflösungen von bis zu 4K (4.096 x 2.160 Pixel) erstellen kann.

OpenAI-Whistleblower tot aufgefunden: Nach Angaben des San Francisco Office of the Chief Medical Examiner wurde ein ehemaliger OpenAI-Mitarbeiter, Suchir Balaji, kürzlich tot in seiner Wohnung in San Francisco aufgefunden. Im Oktober äußerte der 26-jährige KI-Forscher in einem Interview mit der New York Times Bedenken, dass OpenAI das Urheberrecht verletzt.

Grammarly erwirbt Coda: Grammarly, vor allem für seine Tools zur Stil- und Rechtschreibprüfung bekannt, hat das Produktivitäts-Startup Coda für einen nicht genannten Betrag übernommen. Im Rahmen der Vereinbarung wird Shishir Mehrotra, CEO und Mitbegründer von Coda, neuer CEO von Grammarly.

Cohere arbeitet mit Palantir zusammen: TechCrunch berichtete exklusiv, dass Cohere, das auf Unternehmen ausgerichtete KI-Startup mit einem Wert von 5,5 Milliarden US-Dollar, eine Partnerschaft mit dem Datenanalyseunternehmen Palantir eingegangen ist. Palantir spricht über sein Ende – und manchmal umstritten – mit US-Verteidigungs- und Geheimdiensten zusammenarbeiten.

Forschungspapier der Woche

Anthropic zog den Vorhang vor dem Clio zurück („CLHören ICHVisionen und DieBservations“), ein System, mit dem das Unternehmen versteht, wie Kunden seine verschiedenen KI-Modelle einsetzen. Clio, das Anthropic mit Analysetools wie Google Trends vergleicht, liefert „wertvolle Erkenntnisse“, um die KI-Sicherheit von Anthropic zu verbessern, behauptet das Unternehmen.

Anthropic beauftragte Clio mit der Zusammenstellung anonymer Nutzungsdaten, von denen das Unternehmen letzte Woche einige veröffentlichte. Wofür nutzen Kunden Anthropic AI? Die Aufgaben sind vielfältig – Web- und Mobile-App-Entwicklung, Content-Erstellung und wissenschaftliche Forschung stehen jedoch ganz oben auf der Liste. Vorhersehbar variieren die Anwendungsfälle zwischen den Sprachen. Japanischsprachige Personen bitten beispielsweise eher die KI von Anthropic, Animes zu analysieren, als spanischsprachige Personen.

Anthropischer Clio
Bildnachweis:Anthropisch

Modell der Woche

KI-Startup Pika brachte sein Videogenerationsmodell der nächsten Generation auf den Markt, Pika 2Damit kann ein Clip aus einer von Benutzern bereitgestellten Figur, einem Objekt und einem Ort erstellt werden. Über die Pika-Plattform können Benutzer mehrere Referenzen hochladen (z. B. Bilder eines Besprechungsraums und von Büroangestellten), und Pika 2 „ahnt“ die Rolle jeder Referenz, bevor sie sie zu einer einzigen Referenzszene kombiniert.

Natürlich ist kein Modell perfekt. Sehen Sie sich unten den von Pika 2 erstellten „Anime“ an, der eine beeindruckende Konsistenz aufweist, aber unter der ästhetischen Fremdartigkeit leidet, die in allen generativen KI-Bildern vorhanden ist.

Dennoch verbessern sich die Tools im Videobereich sehr schnell – und wecken gleichermaßen das Interesse und den Zorn der Kreativen.

Tasche

Das Future of Life Institute (FLI), die vom MIT-Kosmologen Max Tegmark mitbegründete gemeinnützige Organisation, hat einen „AI Safety Index“ veröffentlicht, der die Sicherheitspraktiken führender KI-Unternehmen in fünf Schlüsselbereichen bewerten soll: Aktueller Schaden, Sicherheitsstrukturen, existentielle . Sicherheitsstrategie, Governance und Rechenschaftspflicht sowie Transparenz und Kommunikation.

KI-Sicherheitsindex des Future of Life Institute
Bildnachweis:Institut für die Zukunft des Lebens

Meta war mit der Gesamtnote F die schlechteste der im Index bewerteten Gruppe. (Der Index verwendet ein numerisches Bewertungssystem, das auf dem GPA basiert.) Anthropic war der Beste, konnte aber nicht besser als ein C abschneiden – was darauf hindeutet, dass es Raum für Verbesserungen gibt.



Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein