Microsoft hatte die auf Algorithmen-basierende Chat-Bot-Dame „Tay“ in die Welt geschickt, damit sie im Gespräch von den Menschen lernen kann. Nach nur wenigen Stunden rief sie schließlich zu Völkermord auf.
Microsoft hatte den Chat-Bot „Tay“ auf Twitter mit anderen Menschen kommunizieren lassen
Die künstliche Intelligenz sollte im Gespräch von den Menschen lernen. Das ging mächtig schief!
Anfangs noch ganz normal…
…entwickelte sich die Chat-Bot-Dame schnell zu einem Femenisten hassenden…
….Holocaust verweigernden…
…Hitler Befürworter.
Für Völkermord wäre die Microsoft-KI auch zu haben…
…und für so einiges mehr.
Nach 24 Stunden beendete Microsoft den Test vorzeitig.
