Nur ein paar Stunden nach David Sacks behauptet Deepseek verwendete OpenAI -Modelle, um ihre eigenen Modelle, Bloomberg Law, zu trainieren Berichte Dass Microsoft die Verwendung der OpenAI -Anwendungsprogrammierung (API) untersucht.
Laut Sicherheitsforschern, die für Microsoft arbeiten, ist das chinesische Unternehmen dahinter R1 -Argumentationsmodell Es kann möglicherweise eine große Menge an Daten unter Verwendung der OpenAI -API im Herbst 2024 haben. Microsoft, der auch der größte Anteilseigner von OpenAI ist, wurde OpenAI über verdächtige Aktivitäten informiert.
Während jeder auf die OpenAI -API abonnieren und zugreifen kann, müssen Sie die Nutzungsbedingungen des Unternehmens vorstellen, dass Sie den Ausgang nicht verwenden können, um ein neues KI -Modell zu trainieren.
„Es ist Ihnen verboten, die Ausgabe zu verwenden, um Modelle zu entwickeln, die mit OpenAI konkurrieren“, schreibt das Unternehmen in seinem Nutzungsbedingungen. Darüber hinaus gibt das Unternehmen an, dass Sie keine „automatischen oder programmierten Daten oder Ausgaben extrahieren).
Die Hauptfrage scheint aus der Destillation zu kommen, einer Methode, die von AI-Modellen Entwickler verwendet wird, um Wissen aus einem anderen Modell unter Verwendung einer Art von Lehrer-Schüler-Verhalten zu extrahieren. Es wird interessant sein zu sehen, ob Deepseek innovative Möglichkeiten gefunden hat, OpenAI -Ratengrenzen zu umgehen und Ihre API im Maßstab zu konsultieren. Wenn dies der Fall ist, wird es sicherlich rechtliche Zweige geben.