Deepfakes – Η νέα απειλή στις αίθουσες σύνταξης

Deepfakes – Η νέα απειλή στις αίθουσες σύνταξης

Deepfakes – Η νέα απειλή στις αίθουσες σύνταξης

Oct 12, 2019 | by Christos Danezis

Deepfakes – Η νέα απειλή στις αίθουσες σύνταξης

 

Η τεχνική του deepfake είναι η προσπάθεια ανασύνθεσης μιας ανθρώπινης μορφής με τη βοήθεια της Τεχνητής Νοημοσύνης και χρησιμοποιείται για να συνδυάσει μια υπάρχουσα εικόνα ή βίντεο με μία άλλη, με τη χρήση του machine learning και την τεχνική που είναι γνωστή ως Generative Adversarial Network.

Το αποτέλεσμα της χρήσης αυτής της τεχνολογίας είναι πραγματικά εντυπωσιακό και μπορεί να οδηγήσει τους χρήστες που το βλέπουν σε πολύ λανθασμένα συμπεράσματα. Αυτό αλλάζει αμέσως την πεποίθηση που υπάρχει εδώ και χρόνια ότι το βίντεο και ο ήχος είναι μια αξιόπιστη πηγή ενημέρωσης.

Σύμφωνα με έρευνα που έχει πραγματοποιήσει η Deep Trace μέχρι σήμερα δεν υπάρχουν αποδεικτικά στοιχεία που να δείχνουν ότι η τεχνολογία αυτή έχει χρησιμοποιηθεί σε προεκλογικές εκστρατείες αλλά το γεγονός ότι η τεχνολογία είναι διαθέσιμη σε πολλούς παγκόσμια δημιουργεί φόβους για την πιθανή χρήση της τεχνολογίας στην προεκλογική εκστρατεία για τις προεδρικές εκλογές στις ΗΠΑ το 2020.

Από το Φθινόπωρο του 2018 η Wall Street Journal δημιούργησε μια ομάδα 21 μελών που αποτελείται από δημοσιογράφους, τεχνικούς εικόνας, αναλυτές κοινού και υπεύθυνους δεοντολογίας με σκοπό να εκπαιδεύσουν τους δημοσιογράφους για τη νέα αυτή απειλή και τους τρόπους που θα πρέπει να την αντιμετωπίσουν. Η επιτροπή δείχνει στους δημοσιογράφους παραδείγματα χρήσης της τεχνολογίας και τους διδάσκει τρόπους που μπορούν να την αναγνωρίσουν.

Ένα χρόνο μετά η επιτροπή κατέληξε σε τρία βασικά στοιχεία που θεωρεί ότι είναι σημαντικά σε μία αίθουσα σύνταξης.

    •  Το πόσο ζωτικής σημασίας είναι η ανάπτυξη της αντίληψης των μελών της αίθουσας σύνταξης για το τι είναι τα deepfakes.

 

    • Το γεγονός ότι πρόκειται για το παιχνίδι της γάτας και του ποντικού καθώς αν και αναπτύσσονται συνεχώς τεχνολογίες για την αναγνώριση των deepfakes, η πλευρά δημιουργίας των deepfakesπροσπαθεί να αναπτύσσει τεχνολογίες που αποφεύγουν την αναγνώριση.

 

    • Οι αρχές της δημοσιογραφίας δεν αλλάζουν σε ότι αφορά στον έλεγχο της πρωτογενούς πληροφόρησης, την διασταύρωση της πληροφορίας που μεταδίδεται κ.α.

 

 

Σε τι κατηγορίες χωρίζονται τα deepfakes;

Το περιεχόμενο που τροποποιείται γενικά με την χρήση της Τεχνητής Νοημοσύνης ονομάζεται Synthetic Media.

Αν και τα τελευταία χρόνια όλη η προσοχή έχει πέσει πάνω στα βίντεο όπου οι τεχνικές έχουν δημιουργήσει υλικό με εκπληκτικά αποτελέσματα, deepfakes μπορούμε να συναντήσουμε ακόμα σε φωτογραφίες, βίντεο, ήχο αλλά και σε κείμενα.

Την επεξεργασία είναι κάποιες φορές πολύ εύκολο να την εντοπίσεις. Τους τελευταίους μήνες ένα από τα παραδείγματα επεξεργασμένων βίντεο ήταν αυτό της Προέδρου της Βουλής των Αντιπροσώπων των ΗΠΑ Νάνσι Πελόζι η οποία εμφανίστηκε σε κοινωνικά δίκτυα τον Μαίο του 2019 μιλώντας κατά τρόπο που οι χρήστες νόμιζαν ότι ήταν υπό την επήρεια ουσιών.

 

Ελευθερία της άποψης vs Αγώνας κατά της παραπληροφόρησης

Το παράδειγμα της Νάνσι Πελόζι εγείρει ξανά τη σύγκρουση μεταξύ της ελευθερίας της άποψης και του αγώνα κατά της παραπληροφόρησης. Αρχικά το συγκεκριμένο βίντεο δεν μπορεί να χαρακτηρισθεί ακριβώς deepfake καθώς δεν έχουν αλλαχθεί ο ήχος και η εικόνα με τη χρήση της Τεχνητής Νοημοσύνης αλλά η ταχύτητα του ήχου έχει ελαφρώς μειωθεί για να παραπλανήσει.

Στη συνέχεια το θέμα που τίθεται είναι αν πρέπει ή όχι τα κοινωνικά δίκτυα να κατεβάσουν το βίντεο. Η απάντηση σε αυτό το ερώτημα δεν είναι τόσο απλή καθώς υπάρχει διχογνωμία για το πως μπορεί κάποιος να ξεχωρίσει αν το βίντεο είχε την πρόθεση να παραπλανήσει ή να κάνει σάτιρα. Ακόμα και τα κοινωνικά δίκτυα μεταξύ τους έχουν αντικρουόμενες απόψεις και αντιμετώπιση. Στο συγκεκριμένο βίντεο το facebook αποφάσισε να μειώσει την εξάπλωσή του και να το συνοδεύσει από ένα κείμενο που έλεγε ότι είναι επεξεργασμένο. Από την άλλη πλευρά το Youtube αποφάσισε να το κατεβάσει, ενώ το Τwitter δεν το άγγιξε και αποφάσισε να συνεχίσει να το φιλοξενεί όπως είναι.

 

Η αντιμετώπιση

Πέρα από την εκπαίδευση των δημοσιογράφων στις αίθουσες σύνταξης για την αναγνώριση των deepfakes έχουν προταθεί και διάφορες άλλες λύσεις για την αντιμετώπισή τους

Μεγάλοι οργανισμοί έχουν αναγνωρίσει την απειλή και έχουν αποφασίσει να συνεργαστούν για να την αντιμετωπίσουν. Για παράδειγμα οι Wall Street Journal, New York Times και Washington Post μαζί με μικρότερους οργανισμούς θα αντιμετωπίσουν από κοινού την απειλή αναπτύσωντας κοινές πρακτικές και δημιουργώντας οδηγούς για δημοσιογράφους όπως ο οδηγός ανίχνευσης των deepfakes για δημοσιογράφους που δημιούργησε πέρυσι η Wall Street Journal.

 

Σημαντικός είναι και ο ρόλος των Πανεπιστημίων που έχουν δημιουργήσει ειδικές αναφορές στα deepfakes εκπαιδεύοντας τους μελλοντικούς δημοσιογράφους στις τεχνικές αναγνώρισής τους.

Οι εταιρείες τεχνολογίας έχουν αρχίσει ήδη έναν αγώνα στην ανάπτυξη εφαρμογών που θα μπορούν να αναγνωρίσουν τα deepfakes. To Facebook ήδη ανακοίνωσε έναν διαγωνισμό με το όνομα “Deepfake DetectionChallenge” μέσω του οποίου πρόκειται να χρηματοδοτήσει με 10 εκατομμύρια δολάρια ερευνητές που θα παρουσιάσουν μια αξιόπιστη λύση στην αναγνώριση των deepfakes.

 

Η εξέλιξη

Η τεχνολογία της Τεχνητής Νοημοσύνης έχει προχωρήσει πλέον σε τέτοιο επίπεδο που μπορεί να μεταφέρει οπτικά όχι μόνο τις κινήσεις των χειλιών ή του προσώπου ενός ανθρώπου σε βίντεο αλλά ολόκληρη την κίνηση του σώματος. Παρόλα αυτά η τεχνολογία δεν έχει φτάσει ακόμα σε επίπεδο να μπορεί να δημιουργεί εικόνα σε πραγματικό χρόνο (real time) χωρίς να γίνεται αντιληπτό από τον χρήστη αλλά ακόμα και αυτό πρόκειται να εξελιχθεί στο μέλλον.