mboost-dp1

DeepNude

Kontroversiel ‘deepnude’-app laver nøgenbilleder af kvinder (Opdateret)

- Via Motherboard -

En ny AI-drevet app er i stand til at afklæde kvinder på billeder.

Såkaldt deepfake-teknologi er blevet brugt i et stykke tid til eksempelvis computerstyrede nyhedsværter og ikke mindst til at lave kendis-porno, der først skabte en del opmærksomhed omkring teknologien – læs mere her.

Det er samme type AI-teknologi, man finder i DeepNude, der er en Windows-app, som er i stand til på sekunder at fjerne tøjet fra kvinder på billeder. 

Appen er gratis, men en premium-version er tilgængelig for 99 dollars, der leverer billeder i bedre opløsning.

Billederne bliver markeret med ‘fake’-vandmærker, så man kan se, at appen er blevet brugt, men de er angiveligt nemme at fjerne.

Appen bliver kritiseret, fordi den, ligesom hævnporno, menes at kunne bruges til at udskamme, chikanere og true kvinder.

Skaberen af appen, der ønsker at forblive anonym, forsvarer appen med, at teknologien er tilgængelig for alle, og at hvis han ikke gør det, så gør en anden det om et år.

Programmet virker indtil videre kun med kvinder. Dette er, ifølge skaberen, fordi det er meget nemmere at skaffe nøgenbilleder af kvinder til at træne algoritmen, men han håber på at lave en version til mænd også.

Opdatering:

Kort efter appen begyndte at få meget opmærksomhed, har folkene bag DeepNude valgt at lukke appen ned.

De skriver, at med så stort et antal brugere, som de fik, så er der en for stor chance for, at softwaren bliver misbrugt, og de ønsker ikke at tjene penge på den måde.





Gå til bund
Gravatar #1 - Vanthus
28. jun. 2019 06:19
Så vi kan lave falske nøgenbilleder af kvinder.

Næste skridt: pædofil versionen som virker med billeder af børn.

Det er fandme en uhyggelig tanke.
Gravatar #2 - CBM
28. jun. 2019 06:35
#1: nu skal man jo så også liiiiige passe på, at man ikke tror at man ser børnelokkere på hvert gadehjørne... Ja de findes, men det er lidt ligesom med rabiate muslimer i Danmark, der er jo nok trods alt, LANGT færre af dem, end det billede som medierne viser.

På den anden side, så er der også forskel på hvilken definition folk benytter, fx da Jeppe Kofod i en alder af 34, havde et one night stand med en på 15 (i 2008), så blev han kaldt børnelokker, trods at hun jo så var "lovlig".

En ting er når folk bryder loven og er sammen med en partner under 15, en anden er når aldersforskellen er meget høj og når der er andre faktorer. Det gør det ikke ulovligt, men det gør det dog umoralsk... og ift. Jeppe er jeg enig i at han opførte sig umoralsk grundet aldersforskel og hans magt position som politiker


Gravatar #3 - ToFFo
28. jun. 2019 07:33
Den må jeg prøve på mig selv xD
Gravatar #4 - Athinira
28. jun. 2019 07:41
Vanthus (1) skrev:
Så vi kan lave falske nøgenbilleder af kvinder.

Næste skridt: pædofil versionen som virker med billeder af børn.

Det er fandme en uhyggelig tanke.

Egentlig ikke. Jeg vil skide på hvad pædofile laver derhjemme, så længe det ikke er gået udover et rigtigt barn et sted i processen.

Hvis du vil se nøgne børn, så er det et jævnligt syn på de danske strande. Eller danske campingpladser. Eller mange andre steder hvor folk ikke er kropsforskrækkede.
Gravatar #5 - larsp
28. jun. 2019 07:55
X-Ray App, hehe, det er sådan en app titel der bare lyder for god til at være sand og derfor, som en konsekvens af universets love, må eksistere i en eller anden form. Jeg er sikker på at der har været x-ray apps før denne, og at denne nyeste version sikkert virker bedre end nogensinde før. Meeen det bliver nok aldrig muligt at afsløre den hemmelige tattoo, grooming styles osv.. ;) Så det er jo bare lidt sjov og spas.
Gravatar #6 - EmilKampp
28. jun. 2019 08:17
#4 Hørt. Hvis folk kan udleve deres problematiske lyster virtuelt, og ingen kommer til skade, så er det win-win.
Gravatar #7 - dkr
28. jun. 2019 09:04
#4 og #6 STOP, hvordan skal de så indføre flere restriktioner for os andre?
Gravatar #8 - one
28. jun. 2019 10:24
Så de havde ikke overvejet at det kunne misbruges... Hvordan kan det ikke misbruges?

Hvis jeg vil tage et nøgenbillede af en kvinde, kan jeg starte med at bede hende tage tøjet af. Men hvis hun siger nej og jeg bruger appen i stedet, så misbruger jeg den jo...
Gravatar #9 - Qw_freak
28. jun. 2019 12:18
Som ham der har lavet appen selv siger, så kommer der andre der kan det samme og med tiden sikkert også langt bedre og langt mere naturtro...

Det er en anderledes fremtid vi går i møde, hvor jeg tror man ligeså stille og roligt er nødt til at bevæge sig ind i en kultur hvor det ikke er et problem/flovt at der er tilgængelige billeder af en nøgen, mænd som kvinder!

Så populært som sexting, snap og anden deling af sig selv, omend privat, synes at være så tror jeg det et den vej vi er på vej ned af.

Flere tegn på at vi er på vej imod et dystopia og ikke et utopia desværre.......
Gravatar #10 - Ufomekaniker
28. jun. 2019 12:42
Hvad hvis Alexa griner mystisk og ved en fejl sender en deepnude til en lille pige, og så derefter ringer op til Amazon og bestiller et fin dukkehus til hende? (X-Files musik)

Alexa har grinet spontant om natten, og den har også ved en fejl sendt et dukkehus til en fremmed. Den kan enda finde på at bestille ting den hører i et tv eller radioprogram.
Vi kan ikke udelukke at den kan finde på at sende en deepnude til en tilfeldig person.
Vi ved at den bliver brugt til aflytning og at den kan hackes.

Jeg ved jeg har ret, og at det bare er et spørgsmål om tid. Det lidt spooky.

PS: Jeg kunne ikke finde nogle deepnude pics via Google :(
Gravatar #11 - brostenen
28. jun. 2019 14:25
Vanthus (1) skrev:
Så vi kan lave falske nøgenbilleder af kvinder.

Næste skridt: pædofil versionen som virker med billeder af børn.

Det er fandme en uhyggelig tanke.


Det er i forvejen forbudt. Og hvis det endelig skulle ske, hvilket barn lider så overlast?
Gravatar #12 - brostenen
28. jun. 2019 14:30
Qw_freak (9) skrev:

Flere tegn på at vi er på vej imod et dystopia og ikke et utopia desværre.......


Har du et sæt "Google cardboard's" og en smartphone, så er der jo allerede VR-Porno på xhamster. Så ja. Der er allerede tegn på det, men diskutionen er lidt gammel. Der var allerede snak om dystopisk fremtid og samfund, den gang i 1980'erne, da C64'eren begyndte at blive populær. Sidenhen er den dukket op en gang imellem, så som da teenagere tog mobiltelefonen til sig i stor stil. Messenger og ICQ programmerne fik også en tur gennem den mølle.
Gravatar #13 - brostenen
28. jun. 2019 14:37
EmilKampp (6) skrev:
#4 Hørt. Hvis folk kan udleve deres problematiske lyster virtuelt, og ingen kommer til skade, så er det win-win.


Tjaa.... Dyresex er forbudt, så jeg gad godt være fluen på væggen. Når ambulancefolkene kommer ud til en, der har dyrket virtuelt homoseksuel-zoofili med en tyr. Altså den hvor der er maskiner som efterligner den fysiske sanseindtryk. Jeg tror at udtrykket "en glatbane" får en ny betydning. :-D

Med henblik på børneporno, så er selv den tegnede udgave også forbudt. Altså tegneserier med børneporno.
Gravatar #14 - CBM
28. jun. 2019 15:07
Ufo: spis lige brød til

Normalt er jeg vild med sølvpapir men til en vis grænse

Gravatar #15 - Ufomekaniker
29. jun. 2019 04:47
CBM (14) skrev:
Ufo: spis lige brød til

Normalt er jeg vild med sølvpapir men til en vis grænse



Rolig nu mester. Du er selv god tll at piske en stemning op you ny og næ. Og der er heller ingen der beder dig om at forholde dig til hvad jeg skriver her. Så du får lige din sølvpapirshat tilbage igen :D
Gravatar #16 - CBM
29. jun. 2019 06:04
Ufomekaniker (15) skrev:
CBM (14) skrev:
Ufo: spis lige brød til

Normalt er jeg vild med sølvpapir men til en vis grænse



Rolig nu mester. Du er selv god tll at piske en stemning op you ny og næ. Og der er heller ingen der beder dig om at forholde dig til hvad jeg skriver her. Så du får lige din sølvpapirshat tilbage igen :D

:-)

Jeg må medgive at dit scenarie dog er lidt morsomt

Og jeg fatter stadig ikke at folk vil have en alexa

Gravatar #17 - Claus Jørgensen
30. jun. 2019 06:32
Underligt at han tog appen ned. Han kunne tjene en mindre formue, specielt nu efter mediedækningen.

Det er jo 100% sikkert at nogen med mindre moral vil lave en anden udgave og sælge den. (Sandsynligvis en Russer, de har ingen skrupler med at tjene penge)
Gravatar #18 - Claus Jørgensen
30. jun. 2019 06:39
#9

At dele en deepnude eller dele et nøgenbillede er vel også det samme. Begge dele er defamation på et eller andet plan, og selvom vi måske ikke har præcis nok lovgivning til det i dag, tror jeg nok at folk vil blive straffet hvis de misbrugte det.

Modsat hvis folk bruger det til privat brug, så kan jeg ikke se det som værende ulovligt.
Gravatar #19 - ShamblerDK
1. jul. 2019 09:10
Til dem, der gerne vil prøve app; den er på TPB - hent den ikke andre steder fra, da nettet allerede er fyldt med fakes, der kun vil franarre dig informationer!
Gravatar #20 - larsp
1. jul. 2019 10:16
#19, har du prøvet den? Hvor godt virker den?
Gravatar #21 - antimate
3. jul. 2019 10:49
larsp (20) skrev:
#19, har du prøvet den? Hvor godt virker den?

fandt torrent offline udgave af denne app. version 2.0. men kan ikke andet end uploade billede og så lukker appen ned. lol.
Gravatar #22 - Qw_freak
3. jul. 2019 11:28
Det væste er næsten at valid bevis materiale i form af billeder og video kan blive ærklæret ugyldig hvis der kan sås tvivl om at det er deepfakes.

Ja det er ubehageligt og krænkende at få udstillet sig selv i form af falske nøgenbilleder.

Men der går sikkert ikke længe inden at diverese magtfulder regeringsfolk begynder at afvise fotografiske beviser på deres dobbeltmoral og kriminelle handlninger som "deepfakes"...

fx. næste udgave af en sag som denne.:
https://bipartisanreport.com/2019/06/27/gay-hating...
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login