Επιμέλεια: Γιάννα Μυράτ

Τα εργαλεία τεχνητής νοημοσύνης γίνονται όλο και καλύτερα στην κλωνοποίηση των φωνών – Αποφύγετε την απάτη ακολουθώντας αυτές τις συμβουλές των ειδικών κι ενημερώστε τους οικείους σας

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Απαντάτε σε μια κλήση από ένα μέλος της οικογένειας και σας εξηγεί με κομμένη την ανάσα πώς συνέβη ένα φρικτό τροχαίο ατύχημα. Χρειάζεται να στείλετε χρήματα τώρα, διαφορετικά θα πάει φυλακή. Μπορείτε να ακούσετε την απόγνωση στη φωνή του καθώς παρακαλεί για άμεση μεταφορά μετρητών. Αν και σίγουρα ακούγεται σαν αυτόν, και η κλήση προήλθε από τον αριθμό του, νιώθετε ότι κάτι δεν πάει καλά.

Έτσι, αποφασίζετε να κλείσετε το τηλέφωνο και να το καλέσετε αμέσως. Όταν το μέλος της οικογένειάς σας λαμβάνει την κλήση σας, λέει ότι δεν έχει σημειωθεί τροχαίο ατύχημα και ότι δεν έχουν ιδέα για τι πράγμα μιλάτε.

Συγχαρητήρια, μόλις αποφύγατε επιτυχώς μια κλήση απάτης τεχνητής νοημοσύνης.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Καθώς τα εργαλεία παραγωγής τεχνητής νοημοσύνης γίνονται πιο ικανά, γίνεται ευκολότερο και φθηνότερο για τους απατεώνες να δημιουργούν ψεύτικο —αλλά πειστικό— ήχο των φωνών των ανθρώπων. Αυτοί οι κλώνοι φωνής AI εκπαιδεύονται σε υπάρχοντα ηχητικά κλιπ ανθρώπινης ομιλίας και μπορούν να προσαρμοστούν ώστε να μιμούνται σχεδόν οποιονδήποτε. Τα πιο πρόσφατα μοντέλα μπορούν ακόμη και να μιλήσουν σε πολλές γλώσσες. Η OpenAI, ο κατασκευαστής του ChatGPT, ανακοίνωσε πρόσφατα ένα νέο κείμενο σε μοντέλο ομιλίας που θα μπορούσε να βελτιώσει περαιτέρω την κλωνοποίηση φωνής και να την κάνει πιο ευρέως προσβάσιμη.

Φυσικά, οι κακοποιοί χρησιμοποιούν αυτά τα εργαλεία κλωνοποίησης τεχνητής νοημοσύνης για να ξεγελάσουν τα θύματα ώστε να νομίζουν ότι μιλούν με κάποιο αγαπημένο τους πρόσωπο μέσω τηλεφώνου, παρόλο που μιλούν σε υπολογιστή. Ενώ η απειλή μιας απάτης με τεχνητή νοημοσύνη μπορεί να είναι τρομακτική, μπορείτε να παραμείνετε ασφαλείς λαμβάνοντας υπόψη αυτές τις συμβουλές ειδικών την επόμενη φορά που θα λάβετε μια επείγουσα, απροσδόκητη κλήση.

Να θυμάστε: ο ήχος AI είναι δύσκολο να εντοπιστεί

Δεν είναι μόνο το OpenAI. πολλές νεοσύστατες εταιρείες τεχνολογίας εργάζονται για την αναπαραγωγή σχεδόν τέλειας ανθρώπινης ομιλίας και η πρόσφατη πρόοδος είναι ταχεία. Οποιεσδήποτε στρατηγικές ασφάλειας που βασίζονται στο να εντοπίζετε ακουστικά περίεργες ιδιορρυθμίες μέσω τηλεφώνου είναι ξεπερασμένες και αναποτελεσματικές.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Κλείστε το τηλέφωνο και καλέστε ξανά

Οι ειδικοί ασφαλείας προειδοποιούν ότι είναι πολύ εύκολο για τους απατεώνες να το κάνουν να φαίνεται σαν η κλήση να προέρχεται από νόμιμο αριθμό τηλεφώνου.

«Πολλές φορές οι απατεώνες πλαστογραφούν τον αριθμό από τον οποίο σας καλούν, το κάνουν να φαίνεται σαν να σας καλεί από μια κρατική υπηρεσία ή την τράπεζα», λέει ο Michael Jabbara, παγκόσμιος επικεφαλής των υπηρεσιών απάτης στη Visa. «Πρέπει να είσαι προετοιμασμένος».

Είτε είναι από την τράπεζά σας είτε από κάποιο αγαπημένο σας πρόσωπο, κάθε φορά που λαμβάνετε μια κλήση που ζητά χρήματα ή προσωπικές πληροφορίες, ζητήστε να τους καλέσετε εσείς.

Μπορείτε επίσης να δοκιμάσετε να τους στείλετε ένα μήνυμα μέσω μιας διαφορετικής, επαληθευμένης γραμμής επικοινωνίας, όπως συνομιλία μέσω βίντεο ή email.

Δημιουργήστε μια μυστική ασφαλή λέξη σαν “σύνθημα”

Μια δημοφιλής συμβουλή ασφαλείας που προτείνουν πολλές πηγές είναι να δημιουργήσετε μια ασφαλή λέξη που μόνο εσείς και τα αγαπημένα σας πρόσωπα γνωρίζετε και την οποία μπορείτε να ζητήσετε μέσω τηλεφώνου.

«Μπορείτε ακόμη και να ορίσετε με τους αγαπημένους σας μια λέξη ή μια φράση που θα μπορούσαν να χρησιμοποιήσουν για να αποδείξουν ποιοι είναι πραγματικά, αν βρίσκονται σε κατάσταση πίεσης», λέει ο Στιβ Γκρόμπμαν, επικεφαλής τεχνολογίας στο McAfee. Αν και το καλύτερο είναι να καλέσετε ή να επαληθεύσετε μέσω άλλου μέσου επικοινωνίας, μια ασφαλής λέξη μπορεί να είναι ιδιαίτερα χρήσιμη για νεαρά άτομα ή ηλικιωμένους συγγενείς που μπορεί να είναι δύσκολο να επικοινωνήσετε διαφορετικά.

Ή απλώς ρωτήστε τι είχαν για δείπνο

Τι θα συμβεί αν δεν έχετε αποφασίσει μια ασφαλή λέξη και προσπαθείτε να υπολογίσετε εάν μια οδυνηρή κλήση είναι πραγματική; Σταματήστε για ένα δευτερόλεπτο και κάντε μια προσωπική ερώτηση.

«Θα μπορούσε να είναι τόσο απλό όσο να κάνεις μια ερώτηση στην οποία μόνο ένα αγαπημένο πρόσωπο θα ήξερε την απάντηση», λέει ο Γκρόμπμαν. «Θα μπορούσε να είναι “Γεια, θέλω να βεβαιωθώ ότι είσαι πραγματικά εσύ. Μπορείς να μου θυμίσεις τι φάγαμε για δείπνο χθες το βράδυ;”» Βεβαιωθείτε ότι η ερώτηση είναι αρκετά συγκεκριμένη ώστε ένας απατεώνας να μην μπορεί να απαντήσει σωστά με μια εικασία.

Κατανοήστε οποιαδήποτε φωνή μπορεί να μιμηθεί

Οι κλώνοι ήχου Deepfake δεν προορίζονται μόνο για διασημότητες και πολιτικούς, όπως οι κλήσεις στο Νιου Χάμσαϊρ που χρησιμοποιούσαν εργαλεία τεχνητής νοημοσύνης και ακούγονταν σαν τον Τζο Μπάιντεν να αποθαρρύνει τους ανθρώπους να πάνε στις κάλπες.

«Αυτό που οι άνθρωποι δεν συνειδητοποιούν είναι ότι με μόλις 5 έως 10 δευτερόλεπτα της φωνής σας, σε ένα TikTok που μπορεί να έχετε δημιουργήσει ή ένα βίντεο YouTube από την επαγγελματική σας ζωή, αυτό το περιεχόμενο μπορεί εύκολα να χρησιμοποιηθεί για τη δημιουργία του κλώνου σας», λέει ο Ραχούλ Σουντ, επικεφαλής προϊόντων στην Pindrop, μια εταιρεία ασφαλείας που ανακάλυψε την πιθανή προέλευση του ήχου του AI Biden.

Χρησιμοποιώντας εργαλεία τεχνητής νοημοσύνης, το εξερχόμενο μήνυμα αυτόματου τηλεφωνητή στο smartphone σας μπορεί να είναι αρκετό για την αναπαραγωγή της φωνής σας.

Μην ενδίδετε σε συναισθηματικές εκκλήσεις

Είτε πρόκειται για συνήθη απάτη τύπου “είμαι ο νέος βοηθός του λογιστή σας” είτε για τηλεφωνική κλήση με τεχνητή νοημοσύνη, οι έμπειροι απατεώνες μπορούν να κερδίσουν την εμπιστοσύνη σας, να δημιουργήσουν μια αίσθηση επείγοντος και να βρουν τα αδύναμα σημεία σας.

«Να είστε επιφυλακτικοί με οποιαδήποτε δέσμευση όπου νιώθετε μια αυξημένη αίσθηση συναισθήματος, γιατί οι καλύτεροι απατεώνες δεν είναι απαραίτητα οι πιο έμπειροι τεχνικοί χάκερ», λένε οι ειδικοί. «Αλλά έχουν πολύ καλή κατανόηση της ανθρώπινης συμπεριφοράς». Εάν αφιερώσετε λίγο χρόνο για να σκεφτείτε μια κατάσταση και αποφύγετε να ενεργήσετε με παρόρμηση, αυτή θα μπορούσε να είναι η στιγμή που θα αποφύγετε την απάτη.

Οι πληροφορίες είναι από το WIRED. Παρακαλούμε όσοι διαβάσατε το δημοσίευμα μοιραστείτε τις οδηγίες με τα αγαπημένα σας πρόσωπα, ιδιαίτερα τους ηλικιωμένους.

σχόλια αναγνωστών
oδηγός χρήσης