Η συνεχής πρόοδος στην τεχνολογία τεχνητής νοημοσύνης δημιουργεί και συστήματα, εφαρμογές και διαφόρων ειδών «προϊόντα» που ελλοχεύουν σοβαρούς κινδύνους σε πολλούς τομείς. Μια από αυτές τις εφαρμογές είναι η δυνατότητα να δημιουργούνται ψεύτικα βίντεο τα οποία όμως μοιάζουν εκ πρώτης τουλάχιστον όψεως αυθεντικά. Τα αποκαλούμενα deepfake βίντεο ξεκίνησαν αρχικά να κάνουν την εμφάνιση στον κυβερνοχώρο παρουσιάζοντας διάσημες σταρ του Χόλιγουντ και της μουσικής βιομηχανίας σε πορνογραφικού περιεχομένου οπτικό υλικό.
Η τεχνολογία πίσω από αυτά τα βίντεο επιτρέπει την τέλεια τοποθέτηση του προσώπου ενός ατόμου σε κάποιο άλλο σώμα όπως επίσης επιτρέπει το να εμφανίζεται κάποιος να λέει πράγματα που ποτέ δεν έχει πει. Από την πρώτη στιγμή που έκαναν την εμφάνιση τους αυτά τα βίντεο πολλοί είπαν ότι πολύ γρήγορα η χρήση τους θα περάσει από την πορνογραφία στη προσπάθεια παραπλάνησης της κοινής γνώμης σε πιο σοβαρά ζητήματα.
Θύμα των deepfake βίντεο έπεσε ο Ουκρανός πρόεδρος Βολοντίμιρ Ζελένσκι ο οποίος φαίνεται σε ένα βίντεο που κυκλοφόρησε στο Διαδίκτυο να αποδέχεται την ήττα από την Ρωσία και να ζητά από τους Ουκρανούς να κατεβάσουν τα όπλα και να σταματήσουν να πολεμούν. Μόλις διαπιστώθηκε η ύπαρξη του βίντεο το Facebook και το YouTube το απέσυραν από τις πλατφόρμες τους. Εκπρόσωπος του Twiiter ανέφερε ότι η εταιρεία προσπαθεί να εντοπίσει την πηγή του βίντεο και πώς αυτό άρχισε να κυκλοφορεί στην πλατφόρμα αλλά μέχρι την στιγμή που γράφονταν αυτές οι γραμμές το Twitter δεν είχε ακόμη αποφασίσει αν θα το αποσύρει.