← zurück
Projekt

Der spannendste Use Case für AI-Agenten, den ich bisher gefunden habe

Ich habe meinem Cousin einen KI-Lernagenten gebaut, der ihn durch seine Facharbeit begleitet hat. Was dabei passiert ist — und warum ich glaube, dass Eltern damit ihren Kindern richtig helfen können.

Ausgangslage

Einer der spannendsten Use Cases, die ich für AI-Agenten gefunden habe, ist Lernbegleitung. Nicht “hier ist die Antwort” — sondern jemand der neben dir sitzt und fragt: “Okay, was hast du bis jetzt?”

Mein Cousin ist in der 12. Klasse und schreibt gerade eine Facharbeit über Kartelle in Mexiko — auf Englisch. Er schreibt mir, ob ich helfen kann. Klar, 20 Minuten am Telefon, ich erklär ihm die Richtung — wie er das Thema eingrenzen kann, wo er anfangen soll, wie er’s strukturiert. Vier Stunden später ruft er nochmal an. Kommt nicht weiter. Nicht weil die Erklärung schlecht war — er braucht jemanden, der Schritt für Schritt mitgeht. Die Zeit hab ich nicht.

Also versuch ich was. Ich baue ihm mit OpenClaw einen AI-Agenten und schick den in seinen Telegram-Chat. Er war skeptisch — KI gibt zu viel vor, das fällt auf, ist nicht cool. Fair point. Also stelle ich den Agenten so ein, dass genau das nicht passiert: Fragen stellen statt Lösungen liefern, Teenager-Deutsch, kurze Messages, kein Monolog. Ich beobachte den Chat im Hintergrund und justiere nach.

Und genau das Beobachten war das Spannende. Irgendwann wurde der Bot zu konkret — hat fast die Antwort vorweggenommen. Also gebe ich ihm Feedback: weniger vorgeben, mehr fragen. Dann merke ich, dass mein Cousin sich in Details verliert und die Deadline aus den Augen verliert. Also sage ich dem Bot, er soll auf die Zeitleiste achten und ein bisschen Time-Management einbauen. Der Bot setzt das um, Step by Step. Es hat sich angefühlt wie ein verlängerter Arm — als könnte ich meinem Cousin helfen, ohne selbst daneben sitzen zu müssen.

Vier Tage später: Facharbeit abgegeben, alleine geschrieben.

Das Experiment: WhatsApp-Bot für alle

Das war von Anfang an als Experiment gedacht. Die Frage: Funktioniert das auch für fremde Kinder, nicht nur für meinen Cousin?

Also: gleicher Ansatz, anderer Kanal. Telegram war der Prototyp, aber Schüler leben auf WhatsApp. Ein WhatsApp-Bot mit dem gleichen Kern — Kind schickt ein Foto von der Aufgabe oder eine Frage, der Bot hilft beim Verstehen. Keine Copy-Paste-Lösungen. 9,90€ im Monat, 14 Tage kostenlos.

Was ich von Anfang an offen kommuniziert habe: Das hat viele Probleme. Die Eltern müssen Bescheid wissen. Und WhatsApp ist nicht datenschutzkonform — das war mir klar. Telegram auch nicht. Als Kanal für ein echtes Produkt kann das so nicht weiterlaufen. Aber um herauszufinden, ob der Use Case funktioniert, war es gut genug.

Erste Woche live

Der Bot ist seit dem 6. März live. Erste Woche: 15 Kinder, 209 Nachrichten.

Zwei stechen raus. Lucienne — Englisch, Klassenarbeit in zwei Tagen, 73 Nachrichten. Der Bot hat nur Fragen gestellt, sie hat selbst gearbeitet. Am Ende: “Du bist echt super 🩷”. Hanna — NaWi, Projekt am Montag, 31 Nachrichten, ähnliches Muster. Beide mit konkretem Anlass, beide intensiv.

Die anderen 9: reingeschaut, keine konkrete Aufgabe, wieder weg. Manche wollten einfach die Lösung — der Bot hat angeleitet statt zu antworten, und sie sind zu ChatGPT gewechselt. Das ist kein Bug, das ist Absicht. Wer nur die Antwort will, geht zu ChatGPT. Wer verstehen will, bleibt.

Was ich gelernt habe: Kinder nutzen Nachhilfe nicht aus Gewohnheit — sie kommen wenn’s brennt. Freitag Klassenarbeit, Sonntag Panik, 73 Nachrichten in zwei Tagen. Danach Stille. Das heißt nicht, dass Retention schlecht ist. Es heißt, die Nutzung hat einen Anlass, keine Routine.

Was hängenbleibt

Das WhatsApp-Experiment ist ein Experiment geblieben — mit offenen Fragen bei Datenschutz, Eltern-Kommunikation und Monetarisierung. Aber die Learnings sind klar.

Es gibt Bedarf. Kinder suchen gezielt nach KI-Nachhilfe. Nicht weil es trendy ist, sondern weil sie Hilfe brauchen und die um 23 Uhr nicht woanders bekommen. Und der Ansatz — anleiten statt antworten — funktioniert. Nicht für alle, aber für die Richtigen.

Was mich am meisten überrascht hat, ist der Use Case für Eltern. Wer ein bisschen technik-affin ist, kann seinem Kind einen eigenen Lernagenten aufsetzen — einen, der auf die Fächer und Schwächen des Kindes zugeschnitten ist und Zugang zu den besten Sprachmodellen bietet. Man sieht, wo das Kind Probleme hat, kann dem Bot in kurzen Feedback-Loops sagen, was er anders machen soll, und dem Kind helfen, ohne selbst stundenlang daneben zu sitzen.

Das war bei meinem Cousin der stärkste Moment: Nicht der Bot an sich, sondern dass ich als Begleiter den Bot steuern konnte. Zu sehen wo er nicht weiterkommt, dem Bot sagen “sei weniger konkret” oder “achte auf die Zeitleiste” — und dann beobachten wie mein Cousin anfängt, selbst Lösungen zu finden. Das fühlt sich an wie ein Lernraum, den man für jemanden aufmacht.

Was mich gerade beschäftigt: Wenn man einmal verstanden hat, wie man ein Agenten-Profil aufsetzt, fängt man an, für jede Situation einen eigenen zu bauen. Ein Agent für Englisch, einer für Mathe, einer der die anderen koordiniert. Jedes Profil hat eigene Regeln, eigene Stärken, eigenen Ton. Und irgendwann hat man nicht einen Bot, sondern ein kleines Team, das auf ein Kind zugeschnitten ist.

Der nächste Schritt wäre, die Agenten Dashboards bauen zu lassen — eine Übersicht darüber, was gerade passiert. Wo steht das Kind, welche Themen laufen gut, wo hakt es. Darüber würde ich beim nächsten Mal berichten.

Ob das als Produkt für den Markt funktioniert, weiß ich nicht. Aber als Use Case für AI-Agenten ist es einer der besten, die ich bisher gesehen habe.