Nvidia führt drei neue NIM-Microservices ein, kleine unabhängige Dienste, die Teil größerer Anwendungen sind, um Unternehmen dabei zu helfen, ihren KI-Agenten zusätzliche Kontroll- und Sicherheitsmaßnahmen zu bieten.
Einer dieser neuen NIM-Dienste zielt auf die Inhaltssicherheit ab und verhindert, dass ein KI-Agent schädliche oder voreingenommene Ergebnisse generiert. Ein anderer dient dazu, Gespräche nur auf genehmigte Themen zu konzentrieren, während der dritte neue Dienst dazu beiträgt, zu verhindern, dass ein KI-Agent Jailbreak-Versuche unternimmt oder Softwareeinschränkungen aufhebt.
Diese drei neuen NIM-Microservices sind Teil des Nvidia NeMo-LeitplankenNvidias bestehende Open-Source-Sammlung von Softwaretools und Microservices soll Unternehmen dabei helfen, ihre KI-Anwendungen zu verbessern.
„Durch die Anwendung mehrerer leichter, spezialisierter Modelle als Schutz können Entwickler Lücken schließen, die auftreten können, wenn nur allgemeinere globale Richtlinien und Schutzmaßnahmen vorhanden sind – da ein einheitlicher Ansatz komplexe Agent-KI-Workflows nicht ausreichend schützt und steuert.“ Die Pressemitteilung sagte er.
Es scheint, dass KI-Unternehmen allmählich erkennen, dass es nicht so einfach sein wird, Unternehmen zur Einführung ihrer KI-Agententechnologie zu bewegen, wie zunächst angenommen. Obwohl Leute wie Salesforce-CEO Marc Benioff kürzlich dabei waren vorhergesagt Wenn in den nächsten 12 Monaten mehr als eine Milliarde Agenten allein mit Salesforce arbeiten, wird die Realität wahrscheinlich etwas anders aussehen.
Eine aktuelle Studie von Deloitte vorhergesagt dass etwa 25 % der Unternehmen bereits KI-Agenten einsetzen oder damit rechnen, dies bis 2025 zu tun. Der Bericht prognostizierte außerdem, dass bis 2027 etwa die Hälfte der Unternehmen Agenten einsetzen werden. Dies zeigt, dass Unternehmen zwar eindeutig an KI-Agenten interessiert sind, die KI-Technologie jedoch nicht im gleichen Tempo einführen, wie Innovationen im KI-Bereich stattfinden.
Nvidia hofft wahrscheinlich, dass Initiativen wie diese dazu führen werden, dass sich die Einführung von KI-Agenten sicherer und weniger experimentell anfühlt. Die Zeit wird zeigen, ob das wirklich wahr ist.