Vom MIT-Gipfel für soziale Medien: 5 Trends, die Experten beobachten
Die Bekämpfung von Fehlinformationen, das Verständnis leistungsfähiger Algorithmen und die Schadensbegrenzung sind die Hauptanliegen der Experten für soziale Medien.
Da die sozialen Medien in der gesamten Gesellschaft eine wichtige Rolle spielen, ist es eine dringende Herausforderung zu verstehen, wie man ihre Macht gestalten und verwalten kann.
Auf dem zweiten jährlichen Social Media Summit @MIT, der von der MIT Initiative on the Digital Economy veranstaltet wurde, diskutierten Experten über die komplizierte Social-Media-Landschaft und sinnvolle Lösungen.
In einem Bericht über die Veranstaltung wurden fünf globale Social-Media-Trends beschrieben, die Experten nach eigenen Angaben beobachten:
1. Der Einfluss sozialer Medien auf die Psychologie von Kindern und Erwachsenen.
Frances Haugen, eine ehemalige Produktmanagerin für Algorithmen bei Facebook, wurde als Facebook-Whistleblowerin bekannt, nachdem sie das Unternehmen im Jahr 2021 verlassen und interne Dokumente an das Wall Street Journal weitergegeben hatte. In einem Gespräch mit MIT Sloan-Professor Sinan Aral beschrieb sie, wie soziale Medien und gezielte Werbung Kinder beeinflussen. Aufgrund von Algorithmen erhalten die extremsten Inhalte oft die meisten Aufrufe, sagte Haugen – zum Beispiel wird jemand, der nach „gesunder Ernährung“ sucht, oft Inhalte angezeigt bekommen, die Essstörungen verherrlichen.
Haugen skizzierte drei Möglichkeiten, diese Probleme auf Facebook anzugehen:
-Verbot gezielter Werbung für Kinder unter 16 Jahren.
-Mehr Ressourcen für die Bekämpfung von Fake News und Hassreden bereitstellen.
-Kinder unter 13 Jahren sollten von der Plattform ferngehalten werden.
2. Die Bedrohung durch Online-Fehlinformationen und die Notwendigkeit systemischer Lösungen.
Studien zeigen, dass nur 1 % der Online-Nachrichten falsch sind, aber sie können eine reale Auswirkung haben – Untersuchungen zeigen, dass je öfter jemand eine Behauptung hört, ob wahr oder falsch, desto wahrscheinlicher ist es, dass er sie glaubt. Die Senatorin des US-Bundesstaates Massachusetts, Becca Rausch, sagte, dass die gegen die Impfung gerichteten sozialen Medien immer beliebter werden und die COVID-19-Pandemie genutzt haben, um eine gegen die Impfung gerichtete Stimmung zu verbreiten. Einige der Lösungen liegen in der Gesetzgebung, sagte sie, obwohl es unklar ist, wie wirksam Gesetze gegen Algorithmen sind, die grenzwertige Inhalte fördern.
3. Die Bedeutung der algorithmischen Transparenz – und wie man sie erreicht.
Algorithmische Transparenz ist die Idee, dass soziale Medienplattformen einen so bedeutenden Einfluss auf die Gesellschaft haben, dass Forscher in der Lage sein sollten, die Algorithmen zu untersuchen, die sie antreiben. Doch viele Unternehmen behandeln ihre Algorithmen als streng geheime Geheimnisse. Laut MIT Sloan-Professor Dean Eckles besteht eine Möglichkeit, Fortschritte zu erzielen, ohne die Innovation zu behindern, darin, Anreize für Social-Media-Unternehmen zu schaffen, interne Daten mit anderen Forschern zu teilen. Aber einfach nur Zugang zu erhalten, reicht nicht aus, so Eckles – seine eigene Forschung zeigt, wie schwierig es ist, die Auswirkungen von Algorithmen zu quantifizieren.
4. Die Ausweitung des Einflusses der sozialen Medien auf Geopolitik und Krieg.
Der militärische Einmarsch Russlands in der Ukraine hat zu einem verheerenden Konflikt geführt. Es findet auch ein Informationskrieg statt, da beide Seiten die sozialen Medien nutzen, um Unterstützung zu gewinnen und Fehlinformationen und Desinformationen zu verbreiten. Falsche Videos verbreiten sich auf TikTok und der Messaging-App Telegram, insbesondere in Russland und China. Unterdessen haben der ukrainische Präsident Wolodymyr Zelenskyy und seine Regierung die Macht der Plattform genutzt, um eine virtuelle Armee von Menschen zu sammeln, die Geld und Material spenden können.
5. Die Schaffung von KI-Ethikstandards und -Schulungen.
Verantwortungsvolle KI bedeutet, dass die Menschen, die hinter der Software stehen, sicherstellen, dass das, was sie entwickeln, den Menschen nicht schadet, sondern ihnen stattdessen ermöglicht, sich zu entfalten, so Rumman Chowdhury, SB ’03, Direktor für Ethik, Transparenz und Verantwortlichkeit beim maschinellen Lernen bei Twitter.
Chris Gilliard, Professor am Macomb Community College, sagte, dass die Regierung diese Überlegungen vorschreiben sollte. „Wir sollten mehr tun, als nur darauf zu warten, dass KI-Entwickler ethischer werden“, sagte er. „Wenn wir uns ansehen, wie andere Industrien funktionieren, gibt es Mechanismen, die verhindern, dass man einfach etwas veröffentlicht, riesige Mengen an Schaden anrichtet und diesen Schaden dann vielleicht später verwaltet.“
Lesen Sie den Bericht über den Social Media Summit und sehen Sie sich die Panels an.
Um den Originalartikel zu lesen, klicken Sie hier