‘For You‘-Feed führt potenziell zu psychischer Abwärtsspirale
Für die technischen Recherchen wurden mehr als dreißig automatisierte Konten eingerichtet, die vermeintlich 13-jährigen Nutzer*innen in Kenia und den USA gehörten, um die Auswirkungen der algorithmischen Empfehlungen auf junge Nutzer*innen zu erfassen. Eine zusätzliche manuell durchgeführte Simulation umfasste je ein Konto in Kenia, den Philippinen und den USA.
Der Bericht Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation erläutert, wie TikTok riskiert, psychische Probleme wie Depressionen, Angstzustände und Selbstverletzung noch weiter zu verstärken.
Der ‘For You‘-Feed von TikTok ist eine hochgradig personalisierte Seite, durch die man endlos weiter scrollen kann. Sie enthält algorithmisch empfohlene Inhalte, die das System nach den mutmaßlichen Interessen der Nutzer*innen auswählt.
Die technischen Recherchen ergaben, dass der Feed nach nur 5-6 Stunden auf der Plattform fast zur Hälfte aus Videos über psychische Gesundheit bestand, die potenziell schädliche Inhalte aufwiesen – das sind zehnmal mehr einschlägige Videos als bei Konten, die kein Interesse an Inhalten bezüglich geistiger Gesundheit zeigten.
Diese Abwärtsspirale trat sogar noch schneller ein, wenn die Videos über psychische Gesundheit, die den Testkonten der vermeintlichen 13-jährigen Nutzer*innen in Kenia, den Philippinen und den USA vorgeschlagen wurden, von den Amnesty-Expert*innen erneut angeklickt und angesehen wurden.
Nach nur drei bis 20 Minuten bestand der ‘For You‘-Feed mit dieser Methode zu mehr als der Hälfte aus Videos, die psychische Probleme thematisierten. Innerhalb einer Stunde wurden zahlreiche empfohlene Videos angezeigt, die Suizid normalisierten oder romantisierten.
Sucht mit System
Die Gestaltung der TikTok-Plattform fördert die ungesunde Nutzung der App. „Unsere Recherchen zeigen, dass TikTok Jugendliche ernsthaften Gesundheitsrisiken aussetzt, wenn es sein derzeitiges Geschäftsmodell beibehält, das mehr darauf ausgerichtet ist, die Augen auf der Plattform zu halten, als das Recht auf Gesundheit von Kindern und Jugendlichen zu respektieren", sagte Lisa Dittmer, Research-Expertin bei Amnesty International.
Die Recherchen von Amnesty International zeigen, dass das Geschäftsmodell von TikTok von Natur aus missbräuchlich ist und die Nutzer*innen belohnt, um sie an die Plattform zu binden und immer mehr Daten über sie zu sammeln. Außerdem wendet TikTok seine Schutzmaßnahmen nur in bestimmten Teilen der Welt an, so dass einige Kinder und Jugendliche der ausbeuterischen Datensammlung noch stärker ausgesetzt sind als andere.