Der Partner in der Nähe von Microsoft und ein Mitarbeiter, OpenAI, kann vorschlagen, dass Deepseek Stahlen Sie Ihre IP und verstoßen Ihre Nutzungsbedingungen. Aber Microsoft möchte immer noch neue brillante Deepseek -Modelle auf seiner Cloud -Plattform.
Microsoft gab heute bekannt R1Das so genannte Deepseek -Argumentationsmodell ist in verfügbar Azure AI Foundry Service, die Microsoft -Plattform, die verschiedene KI -Dienste für Unternehmen im Rahmen eines einzelnen Banners zusammenbringt. In einem Blog -BeitragLaut Microsoft habe die R1 -Version bei Azure AI Foundry „einem strengen Team- und Red -Safety -Teams erfahren“, einschließlich „automatisierte Modellverhaltensbewertungen und umfangreiche Sicherheitsüberarbeitung, um potenzielle Risiken zu mildern“.
In naher Zukunft, sagte Microsoft, können Kunden in der Lage sein, R1 „destillierte“ Aromen zu verwenden, um lokal zu laufen Copilot+ PCsDie Windows -Hardware -Marke von Microsoft, die bestimmte Anforderungen an die KI -Bereitschaft erfüllt.
„Während wir den Modellkatalog bei Azure AI Foundry weiter erweitern, freuen wir uns zu sehen, wie Entwickler und Unternehmen (…) R1 so nutzen, dass sie sich mit echten Herausforderungen stellen und transformative Erfahrungen anbieten“, fuhr Microsoft in der Post fort.
Die Zugabe von R1 zu Microsoft Cloud Services ist merkwürdig, wenn man bedenkt, dass Microsoft Angeblich begann eine Sonde im potenziellen Missbrauch des Deepseek seiner Dienste seiner und openai. Nach Angaben von Sicherheitsforschern, die für Microsoft arbeiten, kann Deepseek im Herbst 2024 eine große Datenmenge unter Verwendung der OpenAI -API haben. Microsoft, der auch der größte Anteilseigner von OpenAI ist, teilte die OpenAI über verdächtige Aktivitäten mit. von Bloomberg.
Aber R1 ist Gegenstand der Stadt, und Microsoft wurde möglicherweise überredet, sie in die Wolkenfalte zu bringen und gleichzeitig die Faszination aufrechtzuerhalten.
Es ist unklar, ob Microsoft im Modell Änderungen vorgenommen hat, um seine Genauigkeit zu verbessern – und seine Zensur zu bekämpfen. Nach einem Test Nach der Informationszuverlässigkeitsorganisation, Newsguard, R1, bietet R1 in 83% der Fälle ungenaue oder nicht geschmückte Antworten, wenn sie nach Nachrichten bezogen werden. Ein separater Test stellte fest, dass sich der R1 weigert, auf 85% der Warnungen im Zusammenhang mit China zu reagieren, möglicherweise eine Folge von Zensur der Regierung, für die die im Land entwickelten KI -Modelle ausgesetzt sind.