Bibtex

@InCollection{,
  Year    = "2019", 
  Title    = "Agententechnologie", 
  Author    = "Unland, Prof. Dr. Rainer", 
  Booktitle    = "Gronau, Norbert ; Becker, Jörg ; Kliewer, Natalia ; Leimeister, Jan Marco ; Overhage, Sven (Herausgeber): Enzyklopädie der Wirtschaftsinformatik – Online-Lexikon",
  Publisher    = "Berlin : GITO",
  Url    = "https://wi-lex.de/index.php/lexikon/technologische-und-methodische-grundlagen/agententechnologie/", 
  Note    = "[Online; Stand 25. April 2024]",
}

Agententechnologie

In den 90er Jahren hat sich die Agententechnologie als eine der faszinierendsten und wichtigsten Forschungsgebiete in der Informatik etabliert. Unter einem intelligenten Softwareagenten wird dabei ein Computerprogramm verstanden, welches flexibel, autonom, vorausschauend und mit einer gewissen Intelligenz ausgestattet in der Lage ist, in einer Umgebung diese zu beobachten und auf für den Agenten relevante Ereignisse angemessen zu reagieren.

Definition und Eigenschaften

Auch wenn das Gebiet der Agententechnologie insgesamt schon über 20 Jahre alt ist, hat sich immer noch keine allgemein akzeptierte Definition dieses Begriffes durchgesetzt. Häufig werden Softwareagenten aber als intelligente und autonome Problemlöser angesehen, die ausgestattet mit eigenen Zielen, Fähigkeiten und Wissen in der Lage sind, in einem in der Regel engen Realweltausschnitt – ihrem Fachgebiet – proaktiv und intelligent zu agieren. Häufig werden eine Auswahl oder alle der folgenden Eigenschaften mit Agenten assoziiert:

  • Zielorientierung: Ein Agent ist ausgestattet mit Langzeitzielen, durch die sein interaktives Verhalten bestimmt wird. Er wird sich nur dann auch aktiv betätigen, wenn dies seiner Zielerreichung dient.
  • Fähigkeiten: Ein Agent besitzt bestimmte Fähigkeiten, die er einsetzt, um seine Ziele zu erreichen.
  • Annahmen: Ähnlich wie ein Mensch wird auch ein Agent durch das getrieben, was er über sich und seine Umwelt glaubt. Diese Annahmen sind subjektiv und müssen nicht zutreffen.
  • Autonomie: Ein Agent ist eine autonome Einheit, die eigenständig entscheidet, wie sie auf Veränderungen der Umwelt oder Anforderungen von außen reagieren möchte. Grundsätzlich hat dies zur Konsequenz, dass ein einmal „losgelassener“ Agent nicht mehr direkt durch den Menschen gesteuert werden kann.
  • Soziale Fähigkeiten: Ein Agent ist in der Lage, sich mit seiner Umwelt auszutauschen. Das kann durch direkte oder indirekte Kommunikation erfolgen.
  • Reaktivität: Agenten müssen zwecks Zielerreichung ihre Umwelt beobachten. Geschehen Dinge, die in Zusammenhang mit der Zielerreichung des Agenten von Relevanz sind, reagiert der Agent auf die Ereignisse innerhalb einer angemessen Zeit.
  •  Proaktivität: Ein proaktiver Agent antizipiert seine Umwelt und dort ablaufende Vorgänge und greift bereits proaktiv, also vorausschauend in Abläufe und Vorgänge ein.
  •  Lern- und Anpassungsfähigkeit: Aufgrund ihrer Intelligenz sind Agenten in der Lage zu lernen, weshalb sie sich auch automatisch an sich ändernde Umweltbedingungen anpassen können.
  • Rationalität: Agenten handeln rational auf der Basis ihres Wissenstandes, ihrer Annahmen, ihrer Ziele und des von ihnen wahrgenommen relevanten Umweltzustandes.

Neben Softwareagenten gibt es auch physische Agenten (Hardware), die hier aber nicht behandelt werden.

Agentenarchitekturen

Die bekannteste Agentenarchitektur ist die sogenannte Belief-Desire-Intention (BDI) Architektur. Sie beruht auf der Theorie des praktischen Schließens (practical reasoning), was auf zwei Aspekten basiert: einer Festlegung, was erreicht werden soll (deliberation), und der Entscheidung, wie dies erreicht werden soll (means-ends reasoning). Letzteres entspricht dem Planen. Dementsprechend entsprechen Beliefs den bereits oben eingeführten Annahmen. Desires sind die Ziele, die ein Agent erreichen möchte. Intentions sind die Aktionen, die ein Agent plant zu unternehmen bzw. zu denen er sich verpflichtet hat, um die gesteckten Ziele zu erreichen. Zur Umsetzung solcher Absichten stehen Pläne zur Verfügung, die dann zur Zielerreichung vom Agenten umgesetzt werden. BDI-Agenten müssen also in der Lage sein, den sie betreffenden Umweltausschnitt verstehen und interpretieren zu können, um daraus Rückschlüsse auf ihr Handeln ziehen zu können. Eng verknüpft mit der BDI-Architektur ist das Konzept des deliberativen Agenten. Ein

deliberativer Agent besitzt eine explizite Wissensrepräsentation mit Formeln, die den Glauben bzw. die Annahmen eines Agenten und sein Wissen über den für ihn relevanten Realweltausschnitt widerspiegeln. Immer wenn sich der für ihn relevante Umweltausschnitt ändert, durchläuft ein deliberativer Agent einen Zyklus aus einer Analyse des neuen Umweltzustandes, der Ableitung von Schlüssen und Plänen daraus (all dies häufig durch logische Interferenz), der Ausführung der Pläne und des Beobachtens der Reaktion der Umwelt auf die Planausführung.

Ein reaktiver Agent repräsentiert das andere Ende des Spektrums. Hierbei handelt es sich grob gesagt um einen Mustererkenner, also einen Agenten, der die Realwelt beobachtet und immer dann, wenn etwas für ihn Relevantes passiert, dies mit gespeicherten Mustern vergleicht. Stimmt ein Muster überein, wird der zu diesem Muster gehörende Plan ausgeführt. Solche Agenten sind vergleichsweise einfach, da sie keine Repräsentation des sie betreffenden Realweltausschnittes besitzen und verstehen müssen. Andererseits erlaubt der einfache Mustervergleich jedoch eine schnelle Reaktion auf relevante Umweltereignisse, weshalb es auch Agentenarchitekturen gibt, die zuerst aus Zeitgründen reaktiv handeln, um dann mit Hilfe einer deliberativen Komponente gemachte Entscheidungen nachträglich zu optimieren.

Mobile Agenten

Mobile Agenten wandern mit ihren Aufgaben, sind also in der Lage, sich innerhalb eines Netzwerks auf dem Knoten niederzulassen, auf dem ihre Aufgabe zu erfüllen ist. Dabei agieren sie i.d.R. sehr eigenständig, ohne oder mit wenig direktem Kontakt zu ihrem Auftraggeber. Erst mit der Rückkehr auf ihren Ursprungsknoten mögen sie die erzielten Resultate an ihren Auftraggeber weitergeben. Bei mobilen Agenten ist das Sicherheitsproblem ein sehr wichtiges und zwar in beide Richtungen. Einerseits muss sichergestellt werden, dass der Agent nur erlaubte Dinge in der ihn aufnehmenden Umgebung machen kann. Andererseits muss aber auch ausgeschlossen werden, dass die aufnehmende Umgebung den Agenten zu ihren Gunsten unerlaubt manipuliert.


Literatur

dInverno, Mark; Luck, Michael: Understanding Agent Systems; 2nd edition Springer Verlag; Series on Agent Technology, 2004

Fasli, Maria: Agent Technology for E-Commerce; John Wiley & Sons, Ltd., 2007

Luck, Michael; McBurney, Peter; Shehory, Onn; Willmott, Steven: Agent Technology: Computing as In-teraction (A Roadmap for Agent Based Computing), AgentLink, 2005. ISBN 085432 845 9 auch zu finden im Internet unter: http://www.agentlink.org/roadmap/al3rm.pdf (9. Sept. 2011)

Weiss, Gerhard (Editor): Multiagent Systems: A Modern Approach to Distributed Artificial Intelligence; The MIT Press; 2000

Wooldridge, Michael: An Introduction to MultiAgent System; John Wiley & Sons, Ltd; 2002

Hier weiterverbreiten