mboost-dp1

Telegram

Deepfake-bots på Telegram skaber tusindvis af nøgenbilleder

- Via The Verge -

Mere end 100.000 nøgenbilleder er forfalsket via deepfake-bots på Telegram – nu sætter italienske myndigheder ind.

Sikkerhedsfirmaet Sensity opdagede i begyndelsen af året en ny deepfake-bot på den anonyme chat-app Telegram.

Denne deepfake-bot har været anvendt til at skabe over 100.000 falske nøgenbilleder af intetanende kvinder.

Ifølge Sensity er nøgenbillederne blevet skabt via et såkaldt DeepNude-software, som blev udgivet online sidste år.

Skaberen fjernede det dog igen med den begrundelse, at sandsynligheden for misbrug var for stor.

Det er dog lykkes at genskabe det, og det er tilgængeligt på flere open source-tjenester og torrent-websites.

Nu går de italienske myndigheder for datasikkerhed (Italian Data Protection Authority) ind i sagen.

De vil undersøge omstændighederne for de ulovlige nøgenbilleder fra Telegram.





Gå til bund
Gravatar #1 - Athinira
26. okt. 2020 16:35
Gad vide hvad de kommer frem til I deres undersøgelse. Mit gæt: intet brugbart.

Det her er ikke teknologi som kan stoppes. Den første DeepFake-algoritme (den som blev brugt til ansigtserstatning) blev udviklet af en gut som mere eller mindre var hobby-programmør. Software er ligesom Corona: Når først katten er ude af sækken, så bliver man nødt til at arbejde rundt om at det er noget som rent faktisk eksisterer og man skal forholde sig til.
Gravatar #2 - Skak2000
26. okt. 2020 17:16
Dette skaber en række problemer der ikke er nogen løsninger på.
Deepfake er virkelighed nu og folk bliver nødtil at leve med det.

Når en ide/dims først er kendt, vil andre altid kunne kopier konceptet. Det vil overtid blive mere og mere udbredt.

Teknisk set er det ikke automatisering af Photoshop fake billeder?


Gravatar #3 - Qw_freak
27. okt. 2020 07:09
Spørgsmålet er om vi bare ligeså godt kan affinde os med at vi er på vej ind i et samfund eller kultur hvor alle kan finde ud af hvordan man ser ud nøgen hvis man er gennemsnitlig af udseende.

Det største spørgsmål bliver så hvilke reelle følger det får når det bliver hverdag at sådan er det bare.
Gravatar #4 - larsp
27. okt. 2020 13:13
Resultatet er vel at man som udgangspunkt ikke kan stole på billeder og film mere. Det er måske godt nok.

og man kan vende den om og bortforklare pinlige billeder ved at sige at de er fakes!

Men hvad kan man så rent faktisk stole på? Her kan der sagtens komme noget ny udvikling på banen. Man kunne forestille sig et kamera der vedhæfter en signatur af billededata. Hvis signaturen passer er billedet råt og uediteret virkelighed... men var det så et billede af et falsk billede kameraet tog...? Kameraet kunne måske inkludere depth of field i billededata, så bliver det ret svært at fuske med, med mindre man hacker kamerafirmwaren. Okay jeg giver op.
Gravatar #5 - larsp
27. okt. 2020 13:20
Qw_freak (3) skrev:
Spørgsmålet er om vi bare ligeså godt kan affinde os med at vi er på vej ind i et samfund eller kultur hvor alle kan finde ud af hvordan man ser ud nøgen hvis man er gennemsnitlig af udseende.

Nej, for algoritmen vil aldrig kunne vide hvor modermærker sidder osv. Der vil nok altid være overraskelser der venter når man får pillet tøjet af personen i virkeligheden ;)
Gravatar #6 - Qw_freak
28. okt. 2020 07:26
#5
Det er måske en del af svaret på hvordan mankna sikre at billeder rent faktisk er ægte, men en lille ændring til Algoritmen der laver deepfakes bliver måske så bare at mna kan føde den billder af målet så den ved mere om hvilke ikke almindelige træk målet har. fx. modersmærker, ar eller lign. IDK.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login