Home Tech News Δεν μπορείς να συκοφαντήσεις κάποιον που έχει πεθάνει, αλλά αυτό δεν σημαίνει...

Δεν μπορείς να συκοφαντήσεις κάποιον που έχει πεθάνει, αλλά αυτό δεν σημαίνει πως είναι σωστό να δημιουργείς deepfake με τη μορφή του.

0

Μήνυμα της Zelda Williams στους θαυμαστές

Η Zelda Williams, κόρη του αείμνηστου Robin Williams, απευθύνει ένα συγκινητικό μήνυμα στους θαυμαστές του πατέρα της. «Σας παρακαλώ, σταματήστε να μου στέλνετε AI βίντεο με τον μπαμπά. Μην πιστεύετε ότι θέλω να τα δω ή ότι θα το καταλάβω. Δεν θέλω και δεν πρόκειται να το κάνω», έγραψε σε ανάρτησή της στο Instagram story τη Δευτέρα. «Αν έχετε λίγη ευγένεια, απλώς σταματήστε να το κάνετε αυτό σε εκείνον, σε εμένα, σε όλους. Είναι ανόητο, χάνετε χρόνο και ενέργεια, και πιστέψτε με, ΔΕΝ θα το ήθελε».

Η κυκλοφορία του Sora 2 και οι deepfakes

Δεν είναι τυχαίο που η Williams ένιωσε την ανάγκη να μιλήσει λίγες μέρες μετά την κυκλοφορία του Sora 2 video model και της εφαρμογής Sora social app της OpenAI, που επιτρέπουν στους χρήστες να δημιουργούν εξαιρετικά ρεαλιστικά deepfakes του εαυτού τους, των φίλων τους και ορισμένων καρτούν χαρακτήρων.

Νομικό πλαίσιο για τους νεκρούς

Αυτό περιλαμβάνει και άτομα που έχουν φύγει από τη ζωή, τα οποία φαίνεται να θεωρούνται «ελεύθερο πεδίο», καθώς δεν είναι παράνομο να συκοφαντείς τους νεκρούς, σύμφωνα με το Student Press Law Center.

Περιορισμοί του Sora για ζωντανούς και νεκρούς

Το Sora δεν επιτρέπει τη δημιουργία βίντεο με ζωντανούς ανθρώπους — εκτός αν πρόκειται για εσάς ή για κάποιον φίλο που σας έχει δώσει άδεια να χρησιμοποιήσετε την εικόνα του (ή «cameo», όπως το αποκαλεί η OpenAI). Αυτοί οι περιορισμοί όμως δεν ισχύουν για τους νεκρούς, οι οποίοι μπορούν να δημιουργηθούν χωρίς ιδιαίτερα εμπόδια. Η εφαρμογή, που διατίθεται μόνο με πρόσκληση, έχει γεμίσει με βίντεο ιστορικών προσώπων όπως ο Martin Luther King, Jr., ο Franklin Delano Roosevelt και ο Richard Nixon, αλλά και διάσημων που έχουν φύγει, όπως ο Bob Ross, ο John Lennon, ο Alex Trebek και φυσικά ο Robin Williams.

Deepfakes των Richard Nixon, John Lennon, Martin Luther King, Jr. και Robin Williams

Ασαφείς γραμμές για τα deepfakes των νεκρών

Δεν είναι ξεκάθαρο πού τραβάει η OpenAI τη γραμμή όσον αφορά τα βίντεο με νεκρούς. Για παράδειγμα, το Sora 2 δεν δημιουργεί βίντεο με τον πρώην πρόεδρο Jimmy Carter, που πέθανε το 2024, ή τον Michael Jackson, που πέθανε το 2009, αν και σύμφωνα με δοκιμές του TechCrunch, δημιούργησε βίντεο με τον Robin Williams, που πέθανε το 2014. Ενώ η λειτουργία cameo της OpenAI επιτρέπει στους ζωντανούς να ορίζουν πώς θα εμφανίζονται σε βίντεο που δημιουργούν άλλοι — ένα μέτρο που υιοθετήθηκε μετά από πρώιμη κριτική στο Sora — οι νεκροί δεν έχουν τέτοια δυνατότητα. Μπορώ να φανταστώ τον Richard Nixon να αναποδογυρίζει στον τάφο του αν έβλεπε το deepfake που έφτιαξα με εκείνον να υποστηρίζει την κατάργηση της αστυνομίας.

Νομικές ευθύνες και deepfakes διασήμων

Η OpenAI δεν απάντησε στο αίτημα του TechCrunch για σχόλιο σχετικά με το αν επιτρέπεται η δημιουργία deepfakes νεκρών ανθρώπων. Ωστόσο, είναι πιθανό ότι τα deepfakes διασήμων όπως ο Williams θεωρούνται αποδεκτή πρακτική για την εταιρεία, καθώς νομικά προηγούμενα δείχνουν ότι η εταιρεία δύσκολα θα θεωρηθεί υπεύθυνη για συκοφαντία εις βάρος νεκρών.

Ηθικά διλήμματα και τεχνολογικές εξελίξεις

«Το να βλέπεις την κληρονομιά πραγματικών ανθρώπων να περιορίζεται στο “αυτό μοιάζει και ακούγεται κάπως σαν εκείνους, άρα αρκεί”, μόνο και μόνο για να φτιάχνουν άλλοι απαράδεκτα TikTok βίντεο που τους χειραγωγούν, είναι εξοργιστικό», έγραψε η Williams.

Κριτική στην OpenAI και τα πνευματικά δικαιώματα

Οι επικριτές της OpenAI κατηγορούν την εταιρεία για επιπόλαιη στάση σε τέτοια ζητήματα, γι’ αυτό και το Sora γέμισε γρήγορα με AI βίντεο που περιλαμβάνουν προστατευμένους χαρακτήρες όπως ο Peter Griffin και ο Pikachu. Ο CEO Sam Altman είχε δηλώσει αρχικά ότι τα στούντιο του Hollywood και οι εταιρείες θα πρέπει να ζητήσουν ρητά εξαίρεση αν δεν θέλουν να συμπεριληφθεί η πνευματική τους ιδιοκτησία σε βίντεο του Sora. Η Motion Picture Association έχει ήδη καλέσει την OpenAI να λάβει μέτρα για το θέμα, δηλώνοντας ότι «η καθιερωμένη νομοθεσία περί πνευματικών δικαιωμάτων προστατεύει τα δικαιώματα των δημιουργών και ισχύει και εδώ». Έκτοτε, ο Altman ανέφερε ότι η εταιρεία θα αλλάξει αυτή τη θέση.

Κίνδυνοι και προκλήσεις των deepfakes

Το Sora θεωρείται ίσως το πιο επικίνδυνο AI μοντέλο για deepfakes που είναι διαθέσιμο στο κοινό, λόγω του ρεαλισμού των αποτελεσμάτων του. Άλλες πλατφόρμες όπως το xAI υστερούν σε ποιότητα, αλλά έχουν ακόμη λιγότερους περιορισμούς από το Sora, επιτρέποντας τη δημιουργία πορνογραφικών deepfakes πραγματικών ανθρώπων. Καθώς οι υπόλοιπες εταιρείες πλησιάζουν την OpenAI, διαμορφώνουμε ένα ανησυχητικό προηγούμενο αν αντιμετωπίζουμε πραγματικούς ανθρώπους — ζωντανούς ή νεκρούς — σαν προσωπικά μας παιχνίδια.

[ Πηγή: TechCrunch ]

Χωρίς σχόλια

Άφησε ένα σχόλιο!

Please enter your comment!
Please enter your name here

Exit mobile version