Start IT/Tech Ingenieure helfen Multirobot -Systemen, in der Sicherheitszone zu bleiben

Ingenieure helfen Multirobot -Systemen, in der Sicherheitszone zu bleiben

8
0
Leicht, flexibel und strahlungsbeständig: Organische Solarzellen für den Weltraum

Drohnenshows sind eine immer beliebtere Form des groß angelegten Lichtdisplays. Diese Shows umfassen Hunderte bis Tausende von Bots in der Luft, die jeweils so programmiert sind, dass sie auf Pfaden fliegen, die zusammen komplizierte Formen und Muster am Himmel bilden. Wenn sie wie geplant gehen, können Drohnenshows spektakulär sein. Aber wenn eine oder mehrere Drohnen -Fehlfunktionen, wie es kürzlich in Florida, New York und anderswo stattgefunden hat, können sie für die Zuschauer vor Ort eine ernsthafte Gefahr darstellen.

Die Drohnen-Unfälle zeigen die Herausforderungen bei der Aufrechterhaltung der Sicherheit in dem, was Ingenieure als „Multiagent-Systeme“ bezeichnen-Systeme mehrerer koordinierter, kollaborativer und computerprogrammierter Agenten wie Roboter, Drohnen und selbstfahrende Autos.

Jetzt hat ein Team von MIT -Ingenieuren eine Trainingsmethode für Multiagent -Systeme entwickelt, die ihren sicheren Betrieb in überfüllten Umgebungen garantieren kann. Die Forscher stellten fest, dass die Sicherheitsmargen und Steuerelemente, die von diesen Agenten gelernt wurden, sobald die Methode zur Ausbildung einer geringen Anzahl von Wirkstoffen verwendet wird, auf eine größere Anzahl von Agenten automatisch skalieren können, was die Sicherheit des Systems als Ganzes gewährleistet.

In realen Demonstrationen trainierte das Team eine kleine Anzahl von palmengroßen Drohnen, um sicher unterschiedliche Ziele zu erreichen, von der gleichzeitigen Umstellung der Positionen mit der Mitte des Fluges bis hin zur Landung auf festgelegten beweglichen Fahrzeugen am Boden. In Simulationen zeigten die Forscher, dass dieselben Programme, die auf einigen Drohnen geschult wurden, bis zu Tausenden von Drohnen kopiert und skaliert werden konnten, sodass ein großes System von Agenten die gleichen Aufgaben sicher erledigen kann.

„Dies könnte ein Standard für jede Anwendung sein, bei der ein Team von Agenten wie Lagerroboter, Search-and-Rescue-Drohnen und selbstfahrende Autos erforderlich ist“, sagt Chuchu-Fan, Associate Professor für Luftfahrt und Astronautik am MIT. „Dies liefert einen Schild oder einen Sicherheitsfilter, in dem jeder Agent seine Mission fortsetzen kann, und wir werden Ihnen sagen, wie Sie in Sicherheit sind.“

Fan und ihre Kollegen berichten über ihre neue Methode in einer Studie, die in der Zeitschrift erscheint IEEE -Transaktionen zur Robotik.Die Co-Autoren der Studie sind die MIT-Doktoranden Songyuan Zhang und Oswin sowie den ehemaligen MIT Postdoc Kunal Garg, der jetzt Assistenzprofessor an der Arizona State University ist.

Mall -Ränder

Wenn Ingenieure in einem Multiagent -System aus Sicherheitsgründen entwerfen, müssen sie in der Regel die potenziellen Pfade jedes einzelnen Agenten in Bezug auf jeden anderen Agenten im System berücksichtigen. Diese paarige Pfadplanung ist ein zeitaufwändiger und rechnerisch teurer Prozess. Und selbst dann ist Sicherheit nicht garantiert.

„In einer Drohne -Show erhält jede Drohne eine bestimmte Flugbahn – eine Reihe von Wegpunkten und eine Reihe von Zeiten – und dann schließen sie im Wesentlichen die Augen und folgen dem Plan“, sagt Zhang, der Hauptautor der Studie. „Da sie nur wissen, wo sie sein müssen und zu welcher Zeit, wenn es unerwartete Dinge gibt, wissen sie nicht, wie sie sich anpassen sollen.“

Das MIT -Team wollte stattdessen eine Methode entwickeln, um eine kleine Anzahl von Agenten zu schulen, um sicher zu manövrieren, auf eine Weise, die eine beliebige Anzahl von Agenten im System effizient skalieren könnte. Und anstatt bestimmte Wege für einzelne Agenten zu planen, würde die Methode es den Agenten ermöglichen, ihre Sicherheitsmargen oder Grenzen, über die sie möglicherweise unsicher sind, kontinuierlich abzubilden. Ein Agent könnte dann eine beliebige Anzahl von Wegen nehmen, um seine Aufgabe zu erfüllen, solange er in den Sicherheitsmargen bleibt.

In gewisser Weise sagt das Team, dass die Methode ähnlich ist, wie Menschen intuitiv in ihrer Umgebung navigieren.

„Sagen Sie, Sie sind in einem wirklich überfüllten Einkaufszentrum“, erklärt so. „Sie kümmern sich nicht um jemanden, der über die Menschen hinausgeht, die sich in Ihrer unmittelbaren Nachbarschaft befinden, wie die 5 Meter, die Sie umgeben, um sich sicher zu bewegen und niemanden zu treffen. Unsere Arbeit verfolgt einen ähnlichen lokalen Ansatz.“

Sicherheitsbarriere

In ihrer neuen Studie präsentiert das Team seine Methode GCBF+, die für „Graph Control Barrier Function“ steht. Eine Barrierefunktion ist ein mathematischer Begriff, der in der Robotik verwendet wird, die eine Art Sicherheitsbarriere berechnet, oder eine Grenze, über die ein Agent eine hohe Wahrscheinlichkeit hat, unsicher zu sein. Für einen bestimmten Agenten kann diese Sicherheitszone Moment zu Moment ändern, da sich der Agent unter anderen Agenten bewegt, die sich selbst innerhalb des Systems bewegen.

Wenn Designer Barrierefunktionen für einen Agenten in einem Mehrfachsystem berechnen, müssen sie in der Regel die potenziellen Pfade und Interaktionen mit jedem anderen Agenten im System berücksichtigen. Stattdessen berechnet die Methode des MIT -Teams die Sicherheitszonen nur eine Handvoll Agenten auf eine Weise, die genau genug ist, um die Dynamik vieler weiterer Agenten im System darzustellen.

„Dann können wir diese Barrierefunktion für jeden einzelnen Agenten kopieren, und dann haben wir plötzlich ein Diagramm von Sicherheitszonen, das für eine beliebige Anzahl von Agenten im System funktioniert“, sagt so.

Um die Barrierefunktion eines Agenten zu berechnen, berücksichtigt die Methode des Teams zunächst den „Erfassungsradius“ eines Agenten, oder wie viel von der Umgebung ein Agent beobachten kann, abhängig von seinen Sensorfunktionen. Genau wie in der Analogie des Einkaufszentrums gehen die Forscher davon aus, dass sich der Agent nur um die Agenten kümmert, die sich in seinem Erfassungsradius befinden, um sicher zu sein und Kollisionen mit diesen Agenten zu vermeiden.

Anschließend simuliert das Team mit Computermodellen, die die besonderen mechanischen Funktionen und Grenzen eines Agenten erfassen, einen „Controller“ oder eine Reihe von Anweisungen, wie sich der Agent und eine Handvoll ähnlicher Agenten bewegen sollten. Sie führen dann Simulationen mehrerer Wirkstoffe durch, die sich auf bestimmte Flugbahnen bewegen, und erfassen, ob und wie sie kollidieren oder auf andere Weise interagieren.

„Sobald wir diese Flugbahnen haben, können wir einige Gesetze berechnen, die wir minimieren möchten, wie sagen wir, wie viele Sicherheitsverletzungen wir im aktuellen Controller haben“, sagt Zhang. „Dann aktualisieren wir den Controller, um sicherer zu sein.“

Auf diese Weise kann ein Controller in tatsächliche Wirkstoffe programmiert werden, die es ihnen ermöglichen, seine Sicherheitszone kontinuierlich auf der Grundlage anderer Agenten zu kartieren, die sie in ihrer unmittelbaren Umgebung erkennen können, und sich dann innerhalb dieser Sicherheitszone zu bewegen, um ihre Aufgabe zu erfüllen.

„Unser Controller ist reaktiv“, sagt Fan. „Wir haben keinen Weg im Voraus vor. Und es ist jedes Mal wiederholt.

Das Team demonstrierte GCBF+ auf einem System von acht verrückten-leichten, palmengroßen Quadrotor-Drohnen, die sie mit dem Fliegen und Umschalten von Positionen in der Luft beauftragt haben. Wenn die Drohnen dies tun würden, indem sie den geraden Weg einschlagen, würden sie sicherlich kollidieren. Nach dem Training mit der Methode des Teams konnten die Drohnen jedoch Echtzeitanpassungen vornehmen, um sich umeinander zu manövrieren und in ihren jeweiligen Sicherheitszonen zu halten, um die Positionen erfolgreich zu wechseln.

In ähnlicher Weise beauftragte das Team die Drohnen mit dem Fliegen und landete dann auf bestimmten Turtebots-Roboter mit Rädern mit schalenähnlichen Spitzen. Die Turtlebots fuhren kontinuierlich in einem großen Kreis herum, und die verrückten konnten vermeiden, miteinander zu kollidieren, als sie ihre Landungen machten.

„Mit unserem Rahmen müssen wir den Drohnen nur ihre Ziele anstelle der gesamten kollisionsfreien Flugbahn geben, und die Drohnen können herausfinden, wie sie zu ihren Zielen gelangen können, ohne sich selbst zu kollidieren“, sagt Fan, der die Methode angewendet werden könnte In jedem Multiagent -System, um seine Sicherheit zu gewährleisten, einschließlich Kollisionsvermeidungssystemen in Drohnenshows, Lagerrobotern, autonomen Fahrfahrzeugen und Drohnenablieferungssystemen.

Diese Arbeit wurde teilweise von der US -amerikanischen National Science Foundation, dem MIT Lincoln Laboratory im Rahmen der SAFR -Programm (Safety In Aerobatic Flight Regimen) und der Defense Science and Technology Agency von Singapur unterstützt.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein