26.03.2016 Auch künstliche Intelligenz kann rassistisch werden

Twitter-User machten Microsofts Chatbot zu einem Rüpel

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

... nein, nicht "zu einem Rüpel" sondern zu einem Rassisten.

Microsoft wollte eine KI erschaffen, welche sich wie ein Teenager verhält, um natürlichere Kommunikation mit einer KI zu testen. Dazu stellte das Unternehmen den Chatbot Tay auf Twitter.

Sobald Tay online war, bombardierten ihn Twitter-Nutzer mit rassistischen Kommentaren, Beleidigungen und frauenfeindliche Beschimpfungen. Tay lernte und das führte dazu, dass er dieses Verhalten annahm und in demselben "Tonfall" seine Äußerungen tätigte.

Tay sollte eine lernende Maschine sein, um mit Menschen zu kommunizieren. Was wir aus dem Experiment lernen können ist, dass KI ohne Moral tatsächlich eine Gefahr werden kann.

Sagen wir dies laut und deutlich allen Konstrukteuren von Drohnen, den bereits fliegenden automatischen Tötungsmaschinen. Auch diese bekommen immer mehr "KI" programmiert, damit sie in "Notfällen" (Abriss der Funkverbindung oder Zerstörung der Leitstelle) ohne menschliche Unterstützung weiter handeln, also töten können.

Mehr dazu bei http://www.gulli.com/news/27273-twitter-user-machten-microsofts-chatbot-zu-einem-ruepel-2016-03-25


Kommentar: RE: 20160326 Auch künstliche Intelligenz kann rassistisch werden

In weniger als 24 Stunden twitterte der Bot: "Hitler was right I hate the jews" und er leugnete den Holocaust.
Mehr über die Psyche und die soziale Welt von Bots steht in dem Artikel Wolfgang Balzer bei Telepolis, sehr lesenswert.
https://www.heise.de/tp/features/Was-weiss-ein-Bot-4678332.html

Marlies, 10.03.2020 17:32


Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/2Bv
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.htm
Tags: #Cyberwar #Hacking #Trojaner #Militaer #Bundeswehr #Aufruestung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #AI #Rassist
Erstellt: 2016-03-26 09:13:37
Aufrufe: 2379

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.
Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

Wir im Web2.0


Diaspora Mastodon Twitter Youtube Tumblr Flickr FsA Wikipedia Facebook Bitmessage FsA Song


Impressum  Datenschutz  Sitemap