Sozialarbeiter beurteilen oft nach Bauchgefühl, welche Kinder gefährdet sein könnten. Besser wäre ein neues Werkzeug aus den USA – das Experten bereits als wichtigste Neuerung im Kinderschutz der letzten 20 Jahre loben

Das Problem: Jede Woche werden in Deutschland etwa 250 Kinder sexuell missbraucht, sehr viele mehr werden misshandelt und vernachlässigt.

Die Lösung: Ein spezieller Algorithmus hilft den oft überlasteten Jugendämtern einzuschätzen, welche Kinder besonders gefährdet sind.

Der Fall des neunjährigen Jungen bei Staufen, der von seiner eigenen Mutter zu Vergewaltigungen angeboten wurde, wird in ganz Deutschland mit Erschütterung beobachtet. Ein monumentales Fragezeichen steht im Raum: Hätte sich die Gewalt verhindern lassen? Immer wieder machen Fälle Schlagzeilen, in denen Kinder sterben oder ihnen Gewalt angetan wird, obwohl die Jugendämter die Risikofaktoren eigentlich kennen oder kennen sollten. Der Bub in Staufen, das wissen wir inzwischen, hätte nicht nur geschützt werden können, sondern müssen. Der Stiefvater war als pädophil bekannt, der Junge war schon einmal aus der Familie genommen worden. Aber ein Gericht entschied, den Kleinen trotz der Bedenken des Jugendamts an die Mutter zurückzugeben, die ihn mit ihrem Lebensgefährten im Darknet zu Vergewaltigungen anbot und so brutalstem Missbrauch auslieferte.

Jede Woche werden in Deutschland etwa 250 Kinder missbraucht. Die Fälle von Kinderpornografie haben seit 2016 um 15 Prozent zugenommen. Gibt es Möglichkeiten, die Gefahren für Kinder besser einzuschätzen? Wie können oftmals überforderte Sozialarbeiter, die vielleicht das Doppelte oder Dreifache eines vernünftigen Pensums an Fällen zu betreuen haben, ihre Ressourcen auf diejenigen konzentrieren, die ihre Hilfe am nötigsten haben?

Die Initiative einer australischen und einer neuseeländischen Forscherin bietet einen konkreten Lösungsansatz: »Wir haben uns gefragt: Welche Familien sind am meisten gefährdet?«, sagen Emily Putnam-Hornstein, Direktorin des Childrens Data Network von der University of Southern California (USC), und Rhema Vaithianathan, Professorin an der Auckland University of Technology in Neuseeland. Sie werteten knapp 80 000 Missbrauchsfälle aus vier Jahren aus, um einen Algorithmus zu kreieren, der Sozialarbeitern die Risikoeinschätzung erleichtert. »Die Sozialarbeiter haben eine Menge Daten«, sagen die Forscherinnen, »aber sie tun sich schwer damit, all die Informationen richtig auszuwerten und einzuschätzen. Wenn ein Anruf kommt, gibt es so viel zu berücksichtigen – die Kinder, die Mutter, vielleicht andere Erwachsene im Haushalt, all diese Menschen haben eine Geschichte, der ein Sozialarbeiter nachgehen könnte. Aber das menschliche Gehirn ist nicht in der Lage, all diese Daten so schnell einzuordnen.«

Algorithmen sind inzwischen Teil unseres Lebens, sie entscheiden über unsere Kreditwürdigkeit, Aktienkäufe und darüber, was wir auf Facebook sehen. Sollten wir sie auch bei der lebenswichtigen Frage konsultieren, welche Kinder gefährdet sind?

Als die Forscherinnen die vorhandenen Daten aus mehreren amerikanischen Gemeinden auswerteten, kamen sie zu einem vernichtenden Urteil: 48 Prozent der Familien mit geringem Risiko wurden weiterhin betreut, aber 27 Prozent der Familien mit dem größten Risiko fielen durch das Raster. Von 18 Familien, in denen ein Kind starb oder lebensgefährlich verletzt wurde, waren acht (44 Prozent) den Behörden zwar bekannt, aber als nicht besonders gefährdet eingestuft worden. »Die Programme, die Jugendämter anbieten, mögen sehr gut sein, aber sie erreichen nicht die richtigen Familien«, erkannten Putnam-Hornstein und Vaithianathan. Während ein Sozialarbeiter vielleicht nur Minuten Zeit hat, um die Entscheidung zu treffen, ob er einem Anruf weiter nachgeht, arbeitet sich ihr Algorithmus durch alle vorhandenen Informationen (vorhergehende Anrufe, krimineller Hintergrund aller bekannten Familienmitglieder, Drogenkonsum, Bildungsgrad der Eltern, Haushaltseinkommen, Geburtsgewicht usw.). Dann blinkt im Computer eine Zahl zwischen 1 und 20 auf. Eine rote 20 entspricht der höchsten Risikostufe, eine grüne 1 der kleinsten.

Im Allegheny County in Pennsylvania, einem Landkreis, der auch die Großstadt Pittsburgh umfasst, wird der Algorithmus seit zwei Jahren genutzt, ausgelöst durch einen tragischen Todesfall: Ein vier Jahre alter Junge und sein siebenjähriger  Bruder starben bei einem Hausbrand. Zuvor waren mehrere Anrufe eingegangen, die meldeten, dass die Mutter, eine Nachtclub-Stripperin, ihre Kinder oft unbeaufsichtigt lassen würde. Weil die Kinder ansonsten gut versorgt wurden, war das für den Jugendamt-Mitarbeiter kein Grund einzugreifen. »Natürlich sind wir frustriert«, gibt Erin Dalton zu, die das Programm im Allegheny County betreut. »Im Rückblick fragen wir uns: Was hätten wir anders machen können?«

Dalton nennt ein jüngeres Beispiel aus ihrem Amt: Ein Vorschullehrer ruft an, weil ihm seine dreijährige Schülerin erzählt hat, ein Freund der Mutter habe sich am Kopf verletzt und sei blutend und zitternd in der Badewanne gelegen. Eine Heroin-Überdosis. Die Familie hat bereits eine dicke Akte: häusliche Gewalt, Vernachlässigung der Kinder, drogensüchtige Eltern, sexueller Missbrauch eines Mädchens durch einen Onkel. Viele Warnsignale, aber alle unbestätigt, kaum Gerichtsurteile. Das ist ein Fall, in dem sich der Sozialarbeiter zur Einschätzung durchringt: geringes Sicherheitsrisiko. »Das mag sich für Aussenstehende merkwürdig anhören«, sagt die Professorin Putnam-Hornstein, »aber man muss sich vor Augen halten, dass jeder Sozialarbeiter jeden Tag viel schlimmere Fälle sieht. Er hat gar keine Zeit, die Akte intensiv zu studieren und sich alle Risikofaktoren vor Augen zu führen.« Von den rund 14 000 Hotline-Anrufen, die jedes Jahr beim Amt in Allegheny County eingehen, kann eben nur maximal die Hälfte weiter bearbeitet werden. In ganz Amerika kann 42 Prozent solcher Hotline-Anrufe nicht weiter nachgegangen werden. In Zahlen: 7,2 Millionen Kinder, bei denen keiner nachschaut. Das kostet jedes Jahr fast 1700 Kinder das Leben. (In Deutschland wurden im vergangenen Jahr 143 Kinder getötet, die meisten von Bezugspersonen.)

In dem Fall des dreijährigen Mädchens im Allegheny County kommt der Algorithmus zu einer anderen Einschätzung als der Mitarbeiter: Risikofaktor 19, Stufe Rot. Der Sozialarbeiter berät sich mit seinem Vorgesetzten und schickt eine Mitarbeiterin los, die sich von den Beteuerungen der Mutter, alles sei in Ordnung, nicht abwimmeln lässt. Schließlich findet sie heraus, dass die Mutter rückfällig wurde und wieder harte Drogen nimmt. Weil die Mutter das Entzugsprogramm schwänzt und in der Wohnung kaum Möbel und keine Betten vorhanden sind, bringt das Amt die drei Kinder bei Familienmitgliedern unter. Die Mutter muss clean werden, bevor sie ihre Kinder zurückbekommt. Das ist das härteste Mittel, das Jugendämter haben: Kindesentzug. Wenn sie richtig handeln, können sie damit ein Leben retten. Wenn sie falsch liegen, zerstören sie damit eine intakte Familie.

Die Sozialarbeiter verbringen nun weniger Zeit damit, intakte Familien zu betreuen und können stattdessen leichter und schneller die gefährdeten identifizieren.

Der Risikofaktor, darauf legt Putnam-Hornstein Wert, »entscheidet nicht darüber, ob ein Kind aus seiner Familie gerissen wird. Es ist ein zusätzliches Hilfsmittel für Mitarbeiter, die darüber entscheiden, ob sie näher hinschauen und einen Mitarbeiter losschicken«. Erin Dalton betont allerdings, dass der Risikofaktor nur genau zwei Leuten bekannt ist: dem Mitarbeiter, der den Anruf entgegennimmt, und seinem Vorgesetzten. Die Sozialarbeiter, die dann zur Familie geschickt werden, kennen die Zahl nicht, damit sie sich nicht davon beeinflussen lassen.

Das »Family Screening Tool« wird inzwischen in einem Dutzend Städten und Gemeinden eingesetzt – mit Erfolg. Die Sozialarbeiter verbringen nun weniger Zeit damit, intakte Familien zu betreuen und können stattdessen leichter und schneller die gefährdeten identifizieren. In Kalifornien überlegt man gerade, das System im gesamten Bundesstaat einzuführen. Jeremy Goldhaber-Fiebert, Gesundheitspolitikexperte von der Stanford Universität, hat das Programm überprüft und für effektiv befunden. Brett Drake, Professor an der Brown School of Social Work an der Washington University in St. Louis, hält es gar für die »wichtigste Neuerung im Kinderschutz der letzten 20 Jahre«.

»Wir machen die Erfahrung, dass unsere Sozialarbeiter mehr Hochrisiko-Fälle untersuchen und weniger Niedrigrisiko-Fälle«, sagt Erin Dalton, die Programmverantwortliche aus dem Allegheny County. »Manche hatten vorher Angst, die neue Methode würde die Zahl ihrer Fälle erhöhen oder zu hastigen Entscheidungen führe. Diese Ängste haben sich als unbegründet erwiesen.«

Immer wieder wird Putnam-Hornstein gefragt, welche Faktoren denn nun am wichtigsten seien, um das Risiko für ein Kind einschätzen zu können. Die Hautfarbe sei es nicht, sagt sie, die sei nur ein Indikator für die Vorurteile der Screener: Schwarze und braune Kinder mit geringer Gefährdung seien bisher zu oft ins Raster der Sozialarbeiter gegangen, stark gefährdete weiße Kinder dagegen viel zu selten. »Wenn es diesen einen Risikofaktor gäbe, würden wir einfach die Sozialarbeiter trainieren, darauf zu achten«, sagt Putnam. »Es ist eine Vielzahl von Faktoren, die zusammen spielen, und die Variablen sind für jede Familie anders. Das ist es ja gerade, was den Algorithmus so wertvoll macht.« Aber einen Faktor, der sich herauskristallisiert hat, nennt sie dann doch: die Abwesenheit eines Vaters auf der Geburtsurkunde. Im Durchschnitt wird in Kalifornien bei neun Prozent der Geburten kein Vater eingetragen, von diesen Kindern werden später aber überduchschnittlich viele misshandelt – 35 bis 50 Prozent. Die Anwesenheit fremder »Ersatzväter« ist also ein Risikofaktor, der Sozialarbeiter besonders aufhorchen lassen sollte. Und Jungs haben ein wesentlich höheres Risiko, verletzt oder getötet zu werden als Mädchen. Wenn schon einmal die körperliche Misshandlung eines Kindes gemeldet wurde, ist das Todesrisiko um 75 Prozent höher.

Im Allegheny County wird der Algorithmus zusammen mit Putnam-Hornstein und Vaithianathan ständig weiterentwickelt. Putnam-Hornstein selbst machte erste Erfahrungen mit dem Jugendschutz in ihrer eigenen Familie: Ihre Eltern adoptierten ein Mädchen aus dem Pflegesystem. Ihr Vater arbeitete mit sozial schwachen Familien, und Putnam selbst jobbte schon neben dem Studium im Kinder- und Jugendschutz. »Ich war für ein Gruppenheim verantwortlich, fühlte mich aber die meiste Zeit, als würde ich nur Kästchen abhaken. Es war unglaublich bürokratisch.«

Der Algorithmus eines anderen Anbieters, Eckard Connects, wurde in Illinois gerade wieder abgeschaltet: das 366 000 Dollar teure Programm stufte zwei Buben als nicht gefährdet ein, die wenig später tot aufgefunden wurden. Der Grund für den Fehler: Die Daten waren schon bei der Erhebung unvollständig eingegeben worden, also kam auch kein vollständiges Bild heraus.

Natürlich gibt es auch generelle Kritik am Kinderschutz per Algorithmus. Da ist zum einen die Angst vor der Datenkrake. »Die Ämter erheben nicht mehr Daten als früher, der Algorithmus gewichtet sie nur«, wiegelt Putnam-Hornstein ab. Anders als Eckard Connects und die meisten Privatanbieter, die mit ihrer Technologie viel Geld verdienen, geben Putnam-Hornstein und Vaithianathan die Rechte an ihrem Algorithmus ab. Der Algorithmus gehört dem Allegheny County, die Kriterien sind transparent, und die Effektivität wird gerade in einer zweijährigen Studie von der Stanford-Universität überprüft. Rechtsanwälte, Sozialarbeiter, Aktivisten, Eltern und sogar ehemalige Pflegekinder diskutierten in öffentlichen Sitzungen über Vor- und Nachteile des Systems, bevor sie zu dem Schluss kamen: Es ist nicht unethisch, den Algorithmus einzusetzen, sondern es wäre unethisch, es nicht zu tun.

In Deutschland dagegen stehen die Jugendämter solchen Programmen skeptisch gegenüber. »In Amerika und Kanada ist man da schon sehr viel weiter«, sagt Rainer Becker, der Vorstandsvorsitzende der Deutschen Kinderhilfe. Er arbeitet mit Professor Jerome Endrass zusammen, Rechtspsychologe an der Universität Konstanz. »Wir würden gerne eine standardisierte Risikoanalyse einführen«, sagt Becker, »denn die hat eine deutlich höhere Trefferquote als die sogenannte intuitive Methode, bei der sich Mitarbeiter auf ihr Bauchgefühl verlassen. Aber in Deutschland haben wir 600 Jugendämter, und die machen alle ihr eigenes Ding.» Mehrere Jugendämter haben eigene Fragekataloge entwickelt, »aber es gibt kein einheitliches, wissenschaftlich solide belegtes Instrument.«

Becker will Fragebögen zur Risikoanalyse bei häuslicher Gewalt für Interventionsstellen oder die Polizei entwickeln, wie es zum Beispiel in Kanada mit dem ODARA-System bereits funktioniert. »Einen Algorithmus würde ich favorisieren. Das lehnt man in Deutschland kategorisch und voller Vorurteile ab. Deutschland ist da noch Entwicklungsland«, sagt Becker. »Die Leute haben Angst, dass sie durch Computer ersetzt werden. Da haben wir hier noch die Eierschalen am Kragen.«

Becker ist noch der Tod des 13 Monate alten Tayler in Hamburg in Erinnerung, der vom Lebensgefährten seiner Mutter vor zweieinhalb Jahren zu Tode geschüttelt wurde. Eine Mitarbeiterin hatte damals im Alleingang entschieden, den Jungen trotz massiver Misshandlungsspuren an seine Mutter zurück zu geben. »Wir können die Gefahren nie ganz ausschalten, aber mir geht es darum zu sagen: Wie kann ich sie minimieren?«

Becker weiß, dass es mit einem Computerprogramm alleine nicht getan ist. Er beklagt die fehlende Qualifikation von Familienrichtern und Jugendamtsmitarbeitern, Überlastung, auch den Umstand, dass die Standards bei freien Trägern oft weniger gut überprüft werden. Aber eines erreicht das Family Screening Tool in jedem Fall: Dass sich Mitarbeiter für die Entscheidung in Grenzfällen mehr Zeit nehmen und das Risiko gemeinsam mit ihren Chefs abwägen. Genau letzteres fehlte bei Tayler.

Dieser Text erschien zuerst im Magazin der Süddetuschen Zeitung. Die Recherche wurde unterstützt durch ein Schöpflin-Stipendium für lösungsorientierten Journalismus. Die Schöpflin-Stipendien werden von der Noah Foundation gemeinsam mit der Schöpflin Stiftung vergeben.