Πώς η τεχνητή νοημοσύνη μπορεί ν’ αλλάξει την ψήφο στις εκλογές
«ΓΕΙΑ ΣΑΣ, είμαι ο Μπάιντεν και σας λέω μη με ψηφίσετε». Κάπου 20.000 Αμερικανοί έλαβαν αυτό το τηλεφωνικό μήνυμα από τον... πρόεδρο των Ηνωμένων Πολιτειών πριν από τις προκριματικές εκλογές στο Νιου Χαμσάιρ για το χρίσμα των Δημοκρατικών.
Προφανώς και δεν ήταν ο Τζο Μπάιντεν που τηλεφωνούσε στους ψηφοφόρους. Απλώς, η φωνή του είχε «κλωνοποιηθεί» με τη βοήθεια της τεχνητής νοημοσύνης. Υπεύθυνες ήταν δύο εταιρείες, η Life Corporation από το Τέξας και η Lingo Telecom από το Μίσιγκαν, όπως αποδείχθηκε από την έρευνα του εισαγγελέα Τζον Φόρμελα.
Δεν είναι σαφές πώς κατάφεραν να αναπαραγάγουν την ομιλία του Αμερικανού προέδρου, αλλά μπορεί να χρησιμοποίησαν το λογισμικό ElevenLabs, το οποίο -επί πληρωμή -επιτρέπει την κλωνοποίηση οιασδήποτε φωνής. Ο διευθύνων σύμβουλος της ElevenLabs, Μάτι Στανισέφσκι, δεσμεύτηκε πάντως να κάνει ό,τι μπορεί για να αποτρέψει την κακόβουλη χρήση εργαλείων τεχνητής νοημοσύνης ήχου. «Προειδοποιούμε τους απατεώνες και όποιους κρύβονται πίσω από αυτό ότι θα επιβληθεί πρόστιμο 23.000 δολαρίων σε όποιον συλληφθεί να παραβιάζει τους κανόνες», πρόσθεσε.
Σε κάθε περίπτωση, η τεχνητή νοημοσύνη έχει εισβάλει στις αμερικανικές προεδρικές εκλογές. Η ανησυχία δεν είναι μάλιστα τόσο αν η τεχνητή νοημοσύνη θα παίξει ρόλο, αλλά με ποια ένταση. Είναι πλέον γνωστό, όχι μόνο στην Αμερική, ότι θα γίνουν προσπάθειες παραβίασης της εκλογικής διαδικασίας. Η αμερικανική Ομοσπονδιακή Επιτροπή Επικοινωνιών (FCC) έχει ήδη κάνει ένα πρώτο βήμα, λαμβάνοντας σοβαρά υπόψη το ζήτημα και απαγορεύοντας τις αυτοματοποιημένες κλήσεις με τεχνητή νοημοσύνη βάσει ενός νόμου για την προστασία των καταναλωτών, από το 1991.
Το πρόβλημα δεν είναι βέβαια μόνο στην Αμερική. Φέτος διοργανώνονται εκλογές σε περισσότερες από 70 χώρες - συμπεριλαμβανομένων και των ευρωεκλογών. Μια σημαντική ανησυχία είναι η χρήση της τεχνητής νοημοσύνης για την παραπληροφόρηση και την άσκηση επιρροής στους ψηφοφόρους, με πλαστές εικόνες, βίντεο και ηχητικά μηνύματα. Παράδειγμα, η υποτιθέμενη σύλληψη του Ντόναλντ Τραμπ με πλάνα που αποδείχθηκε ότι δημιουργήθηκαν με τη βοήθεια της τεχνητής νοημοσύνης.
Στη Γερμανία, επίσης, τα μεγάλα κόμματα χρησιμοποιούν ήδη την τεχνητή νοημοσύνη για πολιτικές εκστρατείες, λέει η Κάτια Μουνιόθ, επιστημονική συνεργάτιδα στο Συμβούλιο Εξωτερικών Σχέσεων (DGAP). Στις τελευταίες
ομοσπονδιακές εκλογές, για παράδειγμα, τα περισσότερα κόμματα χρησιμοποίησαν συστήματα επικοινωνίας βασισμένα σε τεχνητή νοημοσύνη. Οι Χριστιανοδημοκράτες (CDU) χρησιμοποίησαν επίσης μια εφαρμογή στην καμπάνια τους για την αξιολόγηση δεδομένων σχετικά με συνομιλίες από πόρτα σε πόρτα και πιθανούς υποστηρικτές.
Στη Σλοβακία κυκλοφόρησε προεκλογικά ένα ηχητικό μήνυμα στο Facebook όπου ακούγονταν
οι φωνές ενός αρχηγού κόμματος και ενός δημοσιογράφου να συζητούν για τη χειραγώγηση των επερχόμενων εκλογών. Δεν ήταν προφανές στους χρήστες ότι ο ήχος ήταν ένα λεγόμενο deepfake.
«Κοινωνικά ρομπότ»
«Η τεχνητή νοημοσύνη ενέχει κινδύνους ειδικά για τη διαμόρφωση γνώμης πριν από τις εκλογές», λέει ο Κριστόφ Μπίεμπερ, πολιτικός επιστήμονας στο Κέντρο Προηγμένων Μελετών Διαδικτύου (CAIS) στο Μπόχουμ της Γερμανίας. «Ωστόσο, βρισκόμαστε ακόμη στην αρχή της έρευνας και επομένως μπορούμε μόνο να φανταστούμε την κατεύθυνση προς την οποία κινούνται οι εξελίξεις».
Στα κοινωνικά δίκτυα, τα λεγόμενα κοινωνικά ρομπότ, για παράδειγμα, αποτελούν κίνδυνο όσον αφορά την πιθανή επιρροή στους ψηφοφόρους. Τα κοινωνικά ρομπότ είναι ψεύτικοι λογαριασμοί που λειτουργούν με συστήματα τεχνητής νοημοσύνης και κάνουν το περιεχόμενο πιο ενδιαφέρον για τον αλγόριθμο, για παράδειγμα μέσω «like» ή άλλων αλληλεπιδράσεων, προκειμένου να αυξηθεί η προσέγγιση χρηστών.
Οι πολιτικοί θα μπορούσαν επίσης να επηρεάσουν τους ψηφοφόρους με εξατομικευμένα chatbots. Στο Μαϊάμι της Φλόριντα, ο δήμαρχος Φράνσις Σουάρεζ δημιούργησε ένα chatbot με τεχνητή νοημοσύνη για να απαντήσει σε ερωτήσεις σχετικά με τον ίδιο. Ωστόσο, οι ερωτήσεις των χρηστών συνήθως δεν απαντώνται άμεσα, αλλά αντίθετα το λογισμικό χρησιμοποιήθηκε για να τους στείλει ο δήμαρχος ορισμένα βίντεο, ανάλογα με το θέμα.
Η γερμανική ΜΚΟ Algorithmwatch δοκίμασε μοντέλα συνομιλίας που υποστηρίζονταν από την τεχνητή νοημοσύνη πριν από τις πολιτειακές εκλογές στη Βαυαρία και την Έσση. Τα chatbots μερικές φορές έδιναν εντελώς εσφαλμένες απαντήσεις στην ερώτηση σχετικά με τους υποψηφίους των διαφόρων κομμάτων. Σύμφωνα με την Algorithmwatch, αυτό είναι ένα πολύ γνωστό πρόβλημα με τα chatbots, καθώς υπολογίζουν απλώς τις πιθανότητες σύμφωνα με τις οποίες συντάσσουν τις λέξεις μεταξύ τους - είτε είναι αληθινές είτε όχι. Τα λανθασμένα δεδομένα βέβαια μπορούν επίσης να οδηγήσουν σε λανθασμένες απαντήσεις.
>4,6 χιλ. περικοπές θέσεων εργασίας στα μέσα ενημέρωσης και στην τεχνολογία από τον περσινό Μάιο αποδίδονται στην AI.