mboost-dp1

Shutterstock

Farlige konsekvenser af AI-genereret politi-efterforskninger: Forskere advarer om misforståelser og fordomme

- Via Vice -

To udviklere har brugt OpenAIs DALL-E 2 billedgenererings-model til at skabe et teknisk tegneprogram, der kan lave “hyper-realistiske” politiskitser af en mistænkt baseret på brugerinput.

AI-etikere og forskere har udtalt, at brugen af AI i politi-forskning er meget farligt, da det har potentiale til at forværre eksisterende racemæssige og kønsrelaterede fordomme, der optræder i de første vidnebeskrivelser.

Programmet spørger brugeren om informationer via et skabelon eller en åben beskrivelse, hvorefter det sender disse til DALL-E 2 og producerer et AI-genereret portræt.

Forskere har vist, at mennesker husker ansigter holistisk, ikke baseret på simple egenskab, og at en tegneproces, der er baseret på individuelle egenskaber, kan resultere i et ansigt, der er markant forskelligt fra gerningsmandens.

OpenAI har ikke kommenteret på brugen af deres teknologi i dette projekt.





Gå til bund
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login