#5 Warum ist KI manchmal rassistisch?

She Likes Tech - der Podcast über Technologie - A podcast by NDR Info - Tuesdays

Categories:

Wie funktioniert eigentlich Künstliche Intelligenz und warum ist es fatal, wenn wir selbstlernender Software menschliche Vorurteile einprogrammieren? Das erklärt uns Kenza Ait Si Abbou Lyadini. Die Ingenieurin ist Expertin für Künstliche Intelligenz und arbeitet bei der Telekom als Senior Manager Robotics and Artifical Intelligence. Wenn ihr Fragen zu dieser Folge habt oder Anregungen, dann schreibt uns gerne: [email protected] Schreibt uns auch in unserer Umfrage, wie euch der Podcast gefällt. Was machen wir gut, was sollen wir besser machen? Die Umfrage dauert nur 10 Minuten ;-) https://umfrage-ndr.limequery.com/767564?lang=de Und hier sind die Show-Notes zur Folge #5 über KI: We need more diversity in Al development now! | Kenza Ait Si Abbou Lyadini | TEDxHamburg https://www.youtube.com/watch?v=5AgIduLQdqg Dokumentation “Face it” 2019 https://www.tagesspiegel.de/kultur/doku-face-it-im-kino-gesichtserkennung-fuer-alle/24695780.html Rassismus durch Google Algorithmus https://algorithmwatch.org/en/story/google-vision-racism/ Russische Demonstranten von Oppositionsdemos per Gesichtserkennung erkannt https://netzpolitik.org/2017/russische-demonstranten-per-gesichtserkennungs-software-identifiziert/ Verhaftung aufgrund von fehlerhafter Gesichtserkennung in Detroit https://www.npr.org/2020/06/24/882683463/the-computer-got-it-wrong-how-facial-recognition-led-to-a-false-arrest-in-michig?t=1597237602629 Clearview.ai: Wenn Milliardäre Gesichtserkennung als Spionage-Spielzeug nutzen https://www.sueddeutsche.de/digital/clearview-gesichtserkennung-spionage-datenschutz-1.4835272 Clearview AI verweigert Zusammenarbeit mit deutscher Datenschutzaufsicht https://netzpolitik.org/2020/gesichtserkennung-clearview-ai-verweigert-zusammenarbeit-mit-deutscher-datenschutzaufsicht/ FindFace: Die Erkennungsmaschine aus Russland https://www.spiegel.de/netzwelt/web/findface-app-mit-gesichtserkennung-loest-hype-in-russland-aus-a-1092951.html PimEye: Eine polnische Firma schafft gerade unsere Anonymität ab https://netzpolitik.org/2020/gesichter-suchmaschine-pimeyes-schafft-anonymitaet-ab/ Fooling Image Recognition with Adversarial Learning - zwei Beispiele: https://www.youtube.com/watch?v=qPxlhGSG0tc&feature=emb_logo https://www.theregister.com/2017/11/06/mit_fooling_ai/ Störmuster durch Pixelmanipulationen https://www.heise.de/hintergrund/Pixelmuster-irritieren-die-KI-autonomer-Fahrzeuge-4852995.html http://sandlab.cs.uchicago.edu/fawkes/ https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from-facial-recognition.html https://www.youtube.com/watch?v=AWrI0EuYW6A Apple Card: Weiblich, Ehefrau, kreditunwürdig? https://www.zeit.de/digital/datenschutz/2019-11/apple-card-kreditvergabe-diskriminierung-frauen-algorithmen-goldman-sachs/

Visit the podcast's native language site