Start IT/Tech Ziel besagt, dass es die Entwicklung von KI -Systemen verhindern kann, die...

Ziel besagt, dass es die Entwicklung von KI -Systemen verhindern kann, die es für sehr riskant betrachtet

8
0
Facebook/Meta logo with a twist

Der CEO des Ziels, Mark Zuckerberg, versprach, künstliche allgemeine Intelligenz (AGI) zu erledigen, die als KI definiert ist, die jede Aufgabe erfüllen kann, die ein Mensch eines Tages offen verfügbar ist. Aber in a Neues RichtliniendokumentDas Ziel deutet darauf hin, dass es bestimmte Szenarien gibt, in denen es möglicherweise kein hochkompliziertes KI -System startet, das sich intern entwickelt hat.

Das Dokument, das das Ziel darin besteht, seine Grenz -KI -Struktur zu bezeichnen, identifiziert zwei Arten von KI -Systemen, die das Unternehmen für sehr riskantes Start betrachtet: „Systeme mit hohem Risiko“ und „kritischem Risiko“ -Systemen.

Da das Ziel sie definiert, können „hohe Risk „- und“ kritische Risiko „-Systeme Cyber-, Chemical- und Biological Safety -Angriffe unterstützen, der Unterschied besteht darin In einem vorgeschlagenen Implantationskontext gemildert.

Über welche Art von Angriffen sprechen wir hier? Das Ziel gibt einige Beispiele an, wie das „automatisierte Engagement von Ende zu Ende einer durch die Best Practice geschützten Umgebung von Unternehmensgrößen“ und „Verbreitung von biologischen Waffen mit hoher Auswirkungen“. Die Liste der möglichen Katastrophen im Zieldokument ist alles andere als erschöpfend, wobei das Unternehmen jedoch diejenigen umfasst, von denen das Ziel als „das dringendste“ und plausibel ist, um als direkte Folge der Veröffentlichung eines leistungsstarken KI -Systems aufzutreten.

Etwas überraschend ist, dass das Ziel nach dem Dokument das Risiko des Systems klassifiziert, das nicht auf empirischen Tests basiert, sondern durch den Eintritt interner und externer Forscher, die „Senior -Entscheidungsträgern“ unterliegen, informiert werden. Warum? Das Ziel besagt, dass die Wissenschaft der Bewertung „robust genug ist, um endgültige quantitative Metriken bereitzustellen“, um das Risiko eines Systems zu bestimmen.

Wenn das Ziel feststellt, dass ein System ein hohes Risiko darstellt, wird das Unternehmen der Ansicht, dass es den Zugriff auf das System intern einschränken und es erst freigibt, wenn Dämpfungen „das Risiko auf ein moderates Niveau reduzieren“. Wenn andererseits ein System als ein kritisches Risiko angesehen wird, wird das Ziel angeben, dass nicht näher bezeichnete Sicherheitsschutz implementiert wird, um zu verhindern, dass das System ein Exfiltrat- und unterbrochener Entwicklung wird, bis das System weniger gefährlich sein kann.

Die KI -Struktur der Meta -Grenze, die sich das Unternehmen entsprechend weiterentwickelt, scheint sich mit der Änderung des KI -Szenarios zu entwickeln, scheint eine Reaktion auf die Kritik an den „offenen“ Ansatz des Unternehmens zur Systementwicklung zu sein. Das Ziel hat eine Strategie angewendet, die offen zur Verfügung gestellt wurde – obwohl die KI -Technologie – obwohl Es ist nicht offen durch die allgemein verstandene Definition – Im Gegensatz zu Unternehmen wie OpenAI, die ihre Systeme hinter einer API sperren.

Für das Ziel erwies sich der Ansatz der offenen Freisetzung als Segen und Fluch. Die KI -Modelsfamilie des Unternehmens, genannt LamaHunderte Millionen von Downloads angesammelt. Aber auch zweite Es wurde von mindestens einem US -Gegner verwendet, um einen Verteidigungs -Chatbot zu entwickeln.

Durch die Veröffentlichung seiner Grenz -KI -Struktur kann das Ziel auch darauf abzielen, seine offene KI -Strategie mit dem chinesischen AI Deepseek Company zu vergleichen. Deepseek Es bietet auch seine Systeme offen an. Aber die KI des Unternehmens verfügt über nur wenige Schutzmaßnahmen und kann leicht gerichtet werden Erzeugen Sie giftige und schädliche Ergebnisse.

„(W) glauben, dass unter Berücksichtigung der Vorteile und Risiken bei der Entscheidungsfindung zur Entwicklung und Bereitstellung fortgeschritten war“, schreibt Meta im Dokument, „es ist möglich, diese Technologie auf eine Weise zu liefern, die die Vorteile der Vorteile des Vorteile dieser Technologie für die Gesellschaft, neben der Aufrechterhaltung eines angemessenen Risikos.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein