Μετά τα fake news έρχονται τα fake videos. Η τεχνολογία της μηχανικής μάθησης άρχισε ήδη να χρησιμοποιείται για να δημιουργηθούν αισθησια...
Μετά τα fake news έρχονται τα fake videos. Η τεχνολογία της μηχανικής μάθησης άρχισε ήδη να χρησιμοποιείται για να δημιουργηθούν αισθησιακού περιεχομένου βιντεοκλίπ, στα οποία πρωταγωνιστούν διάσημες ηθοποιοί του Χόλιγουντ και τραγουδίστριες της ποπ. Η τεχνητή νοημοσύνη αντικαθιστά τα πρόσωπα των πραγματικών πρωταγωνιστριών των πορνό φιλμ με εκείνα των ηθοποιών και των τραγουδιστριών.
Έτσι, η Σκάρλετ Γιόχανσον, η Έμα Γουάτσον, η Τέιλορ Σουίφτ, η Γκαλ Γκαντότ (Wonder Woman), η Μέιζι Ουίλιαμς (Game of Thrones), η Ντέιζι Ρίντλεϊ (Star Wars) και άλλες διάσημες ηθοποιοί έχουν βρεθεί εν αγνοία τους να κάνουν ακατονόμαστα πράγματα προς τέρψη των χρηστών του διαδικτύου.
Μια ομάδα στον διαδικτυακό τόπο Reddit έχει αφιερώσει μήνες για τη δημιουργία και την εξάπλωση αυτών των ψευδο-πορνοφίλμ, σύμφωνα με τη βρετανική Guardian. Ο "πρωτοπόρος" υπήρξε κάποιος με το όνομα "deepfake".
Τέτοιες πιο ερασιτεχνικές αντικαταστάσεις προσώπων προσφέρουν διάφορες εφαρμογές όπως το Snapchat, αλλά η ποιότητα της δουλειάς του "deepfake" και των μιμητών του κινείται σε ανώτερο επίπεδο χάρη στο "χεράκι" που έχει βάλει η προχωρημένη τεχνητή νοημοσύνη.
Ένας άλλος χρήστης του Reddit, ο "deepfakeapp", κυκλοφόρησε μια εφαρμογή για υπολογιστή, η οποία επιτρέπει σε κάθε χρήστη να δημιουργήσει το δικό του "πονηρό" βιντεοκλίπ. Αν και δεν είναι εύκολη στη χρήση της, καθώς απαιτεί οκτώ έως 12 ώρες επεξεργασίας για να παραχθεί ένα σύντομο "κλιπ", η εφαρμογή έδωσε ώθηση σε μια νέα γενιά "δημιουργών".
Ο "deepfakeapp" έκανε λόγο σε ανάρτησή του στο Motherboard για "μια καλή αρχή" και υποσχέθηκε "νέες βελτιώσεις τις επόμενες μέρες και εβδομάδες". Όπως ανέφερε, "τελικά, θέλω να τη βελτιώσω σε σημείο που οι χρήστες να μπορούν να διαλέγουν ένα βίντεο στον υπολογιστή τους, να 'κατεβάζουν' από μία ελεύθερα προσβάσιμη βιβλιοθήκη ένα νευρωνικό (υπολογιστικό) δίκτυο που σχετίζεται με ένα συγκεκριμένο πρόσωπο και μετά να αντικαθιστούν το πρόσωπο του βίντεο με το πάτημα ενός κουμπιού".
Η ευκολία αυτή ήδη δημιουργεί ανησυχίες ότι στο μέλλον δεν θα μπορεί κανείς να εμπιστευθεί όχι μόνο την αξιοπιστία πολλών ειδήσεων, αλλά ούτε των ταινιών ή οποιουδήποτε βιντεοσκοπημένου υλικού.
Πηγή πληροφοριών: ΑΠΕ - ΜΠΕ
Πηγή ΦΩΤΟ: thesun.co.uk
Δεν υπάρχουν σχόλια
ΠΡΟΣΟΧΗ! Την ευθύνη για το περιεχόμενο των σχολίων φέρει αποκλειστικά ο συγγραφέας τους και όχι το site. Η ανάρτηση των σχολίων μπορεί να έχει μια μικρή χρονική καθυστέρηση