mboost-dp1

Microsoft Corporation

Microsoft undskylder for AI-chatbots nazi-udtalelser

- , indsendt af _tweak

Efter at have lanceret maskinlærings-systemet ‘Tay’, har Microsoft måttet trække stikket efter et døgn. Selskabet åbnede op for Tay på Twitter med det formål at give det læring og forbedring af dets kunstige intelligens. Det skulle ske ved at interagere med 18 til 24-årige amerikanske brugere.

Men dette resulterede i noget, Microsoft kalder en koordineret indsats fra twitterbrugere i håb om at misbruge Tays evner til at kommunikere. I praksis lykkedes dette, da Tay begyndte at benægte holocaust, udvise støtte for nazismen samt komme med antifeministiske kommentarer.

Microsoft lukkede derfor for Tay og vil nu justere på systemet.





Gå til bund
Gravatar #1 - modgaard
30. mar. 2016 13:47
Hvis man har lyst til at chatte med Tay, er systemet igen online - og ifølge Softpedia stadig i gang med ulovlige ting.

Det sker på Twitter ved at tilføje '@TayAndYou' - denne gang skal man dog godkendes for at få adgang til Tay.
Gravatar #2 - Magten
30. mar. 2016 16:34
modgaard (1) skrev:
Hvis man har lyst til at chatte med Tay, er systemet igen online - og ifølge Softpedia stadig i gang med ulovlige ting.

Det sker på Twitter ved at tilføje '@TayAndYou' - denne gang skal man dog godkendes for at få adgang til Tay.

Er botten igang med ulovelige ting? Skriver den ikke nærmere, at den laver ulovlige ting?
Gravatar #3 - Claus Jørgensen
30. mar. 2016 17:10
Management undskylder, vi andre griner ;-)
Gravatar #4 - modgaard
30. mar. 2016 18:11
#2 Jo
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login