KI und OpenClaw – Der Versuch einer der Einordnung
OpenClaw (früher Moltbot, noch früher ClawdBot) ist ein Open-Source-Projekt: ein KI-Helfer, der nicht nur Texte schreibt, sondern auch Dinge erledigen kann. Genau das macht es so spannend: Der Helfer läuft auf dem eigenen Rechner und lässt sich über Messenger steuern und – je nachdem, was erlaubt ist– Dateien lesen, Programme starten oder Sachen verschicken. So wird aus KI, die nur Ratschläge gibt, eine KI, die Arbeit abnimmt.
Das ist anders als bei ChatGPT und Co. Ein Chatbot kann gut erklären, wie man etwas machen kann – aber man musst es dann selbst mit Programmen erledigen. Bei Systemen wie OpenClaw sagt man was passieren soll und der Agent macht es (im Rahmen seiner Möglichkeiten). Viele finden das sehr interessant, weil es so einfach ist (kein Klicken mehr, nur noch chatten) und trotzdem viel bewirkt (der Computer erledigt Aufgaben selbst).
Für Firmen ist das Ganze nicht nur ein einzelnes Tool, sondern ein neuer Weg, um auf Infos und Abläufe zuzugreifen. Wenn ein Agent Nachrichten z.B. aus Messengern entgegennimmt und daraus Aktionen macht, hat man quasi einen zusätzlichen Knopf für die eigenen IT-Systeme – mit allem, was dazugehört, wie bei Automatisierung, Plattformen und Konten mit besonderen Rechten. Das kann nützlich sein: Infos und Aufgaben, die immer wiederkehren, werden schneller erledigt, weil man nicht mehr so oft hin- und herwechseln muss. Aber man muss auch aufpassen, dass alles gut geregelt ist, weil Fehler nicht nur im Text stehen bleiben, sondern echte Folgen haben können.
Genau deshalb wird OpenClaw auch schnell als „gefährlich“ bezeichnet. Zwei Sachen sind besonders riskant: Erstens sind Sicherheitslücken relevanter, wenn ein Tool Zugriff ein System hat, als bei einem normalen Chat.
Zweitens steigt die Gefahr von falschen Versionen und Angriffen, wenn etwas gerade im Trend liegt, schnell installiert wird und offen für Erweiterungen ist.
Was bedeutet das für eine Nutzung? KI-Agenten können die Arbeit erleichtern – aber man muss sie anders behandeln als normale Programme. Wenn man diese Art von Software ernsthaft in Betracht zieht, sollte man sie wie eine „Automatisierung mit Sonderrechten“ behandeln: Erst mal in einer sicheren Umgebung ausprobieren, nur minimale Rechte geben, genau festlegen, wer was darf und was protokolliert wird, nur bestimmte Verbindungen zulassen, Kosten und Modelle begrenzen und klare Regeln für den Betrieb und die Verantwortung festlegen. Die Diskussion um OpenClaw zeigt vor allem eins: Die Technik wird immer alltagstauglicher – aber ohne Regeln kann sie zum Problem werden.
Aber verdammt interessant bleibt es…