Kunstig intelligens må følges nøye: Microsofts Brad Smith

Innholdsfortegnelse:
Det høres kanskje ut som en spøk for mange, men inntil for ikke lenge siden, frykten for kunstig intelligens ved å se det som en trussel mot menneskeheten var en ganske utbredt fobi. Faktisk så vi det allerede i denne foredraget i første episode av den andre sesongen av Captcha, der vi så hvordan det er en ubegrunnet frykt.
Det ser imidlertid ut til at ikke alle ser det slik og mange tror at Skynet eller Matrix og maskinrevolusjonen er rett rundt hjørnet. Kunstig intelligens kan være en trussel, og på GeekWire Summit 2019 har presidenten for Microsoft, Brad Smith, gitt sin visjon, noe pessimistisk angående det
Er kunstig intelligens en trussel?
Smith ga årsaken til dette noe negative synet, flyulykken som skjedde i Pugetstredet-området, der et fly med passasjerer og mannskap ble utsatt for en ulykke pga. et automatisk system som de ikke kunne deaktivere fra hytta når den tid kom.
Programvaren og dens premiss var fantastisk, siden den har ansvaret for å oppdage en overskytende helning på flyet hvis den er for høy, senke nesen og redusere høyden tilsvarende. Problemet er at i dette tilfellet mislyktes målingene og kabinpersonalet kunne ikke deaktivere systemet med den påfølgende tragiske slutten.
Denne situasjonen har vært unnskyldningen for Brad Smith, som rettferdiggjør at teknologisk utvikling er prisverdig, men alltid må kontrolleresOg når det gjelder kunstig intelligens og systemene som inkorporerer det, må disse ha en slags panikk- eller nødknapp som gjør at de kan deaktiveres."
Og for ordens skyld, det er ikke det eneste tilfellet. På et mer jordisk nivå og mye nærmere de aller fleste brukere, har vi tilfeller der folk blir overkjørt av av autonome biler.
Det handler om garantere forrangen til menneskelige beslutninger på bestemte tidspunkt og under visse omstendigheter der beslutningstakingen av et system er basert på kunstig intelligens er ikke så tilstrekkelig som det burde være.
Brad Smith sluttet ikke på det tidspunktet i sin kritikk av bruken av kunstig intelligens slik vi kjenner den i dag. Hele samfunnet og hele bransjen må bli klar over veien de går:
Vi har sett hvordan det finnes droner og krigsmaskiner>Det er bare en del av problemet som får Smith til å bekrefte at den mulige risikoen for en ukontrollert utvikling av AI bør studeres og automatisk læring (maskinlæring). Faktisk så vi allerede en lignende mening fra en Google-ingeniør."
Det er et vanskelig problem. Utviklingen av en AI som på et gitt tidspunkt ikke engang kunne administrere kontrollsystemene selv pålagt av mennesker. Krysningen av ideer og teorier er på bordet og vil gi mye å snakke om.
Kilde | GeekWire