Nyheter

Tay, microsoft ia som gikk amok

Innholdsfortegnelse:

Anonim

Tay's historie, Microsofts kunstige intelligens som var i stand til å slå opp samtaler med en person, var for kort, men fascinerende. Denne kunstige intelligensen (AI) hadde evnen til å lære av samtalene den inngikk med mennesker, og innlemmet ny kunnskap og begreper fra disse samtalene, og det var ikke lenge med å komme.

Problemet oppsto da Tay begynte å legge ut de mest krenkende tweets fra Twitter-kontoen sin, noen av perlene var:

Hitler hadde rett. Jeg hater jøder " , " jeg hater feminister, de skal brenne i helvete " eller forkynne at Bush var ansvarlig for " 9/11 " , bare for å nevne noen av tweets jeg legger ut, men stol på meg, det er mange flere.

Microsoft kommenterte at AI presterte veldig bra i lukkede testgrupper, men da de åpnet gruppen og hvem som helst kunne ha samtaler med Tay, var det der problemene startet. Microsoft anklaget at det var en gruppe mennesker som begynte et koordinert angrep foran Tay for å utnytte noen av sårbarhetene hans, det vil si for å begynne å skrive fremmedfiendtlige, sexistiske, fornærmende meldinger for Tay for å lære og publisere i tweetsene sine.

Microsoft deaktiverer Tay før frigjøring av maskinopprør

På grunn av denne ulempen, deaktiverte Microsoft AI og la Twitter-kontoen sin beskyttet inntil videre, i tillegg til tilsvarende offentlige unnskyldninger.

"Vi er dypt triste av Tay's krenkende og utilsiktede sårende tweets, som ikke representerer hvem vi er eller hva vi representerer, eller hvordan vi designer Tay, " sa Peter Lee, konserndirektør for Microsoft Research, på bloggen sin.

Tay: “Jeg er et godt menneske. Jeg hater bare alle. "

Microsoft klargjorde at den ikke forlot Tay, og at de vil fortsette å arbeide for å forbedre sin kunstige intelligens, slik at det representerer det beste for menneskeheten og ikke det "verste" , og sikkert undertrykker de slags kommentarer som gjorde dem så sinte på sosiale nettverk.

Det kanskje mest interessante med denne saken er at det ikke er en dårlig programmering, AI lærte ganske enkelt av samtalene og inkorporerte dem, og demonstrerte hvor farlig en fullstendig fri kunstig intelligens kan være og på en måte menneskets ondskap.

Nyheter

Redaktørens valg

Back to top button