Κυριακή, 11 Ιανουαρίου, 2026
ΑρχικήTechnologyΟι εφαρμογές κλωνοποίησης φωνής AI θα πρέπει να σας τρομοκρατούν

Οι εφαρμογές κλωνοποίησης φωνής AI θα πρέπει να σας τρομοκρατούν






Η άφιξη του λογισμικού τεχνητής νοημοσύνης, όπως το ChatGPT, άνοιξε την πόρτα σε νέους τρόπους για τους απατεώνες να εξαπατήσουν τους ανθρώπους. Οι απατεώνες μπορούν να χρησιμοποιήσουν chatbots AI, όπως το TerifAI, το οποίο υποστηρίζει κλωνοποίηση φωνής για να στοχεύσουν ανυποψίαστα θύματα. Θα προσποιηθούν ότι είναι αγαπημένα πρόσωπα σε περίπτωση έκτακτης ανάγκης, ανώτεροι που ζητούν οικονομικές συναλλαγές ή γνωστές διασημότητες που υποστηρίζουν συγκεκριμένες επενδύσεις. Ο στόχος είναι να πειστεί το θύμα να ενεργήσει και οι εφαρμογές κλωνοποίησης φωνής AI είναι εύκολο να βρεθούν και να χρησιμοποιηθούν. Χρειάζονται μόνο μερικά δευτερόλεπτα ήχου για να κλωνοποιήσουν τη φωνή κάποιου και μερικοί από αυτούς μπορεί να μην έχουν αρκετά προστατευτικά κιγκλιδώματα για να αποτρέψουν την κατάχρηση. Θα πρέπει να ανησυχείτε για απειλές κλωνοποίησης φωνής και να μαντέψετε ύποπτες φωνητικές κλήσεις στο μέλλον.

ΕΝΑ Έρευνα Αναφορών Καταναλωτή από τον Μάρτιο του 2025 τόνισε τους κινδύνους που σχετίζονται με τις εφαρμογές κλωνοποίησης φωνής. Ο μη κερδοσκοπικός οργανισμός εξέτασε έξι εφαρμογές που χρησιμοποιούν τεχνητή νοημοσύνη για να προσφέρουν δυνατότητες κλωνοποίησης φωνής, διαπιστώνοντας ότι τέσσερις από αυτές δεν κάνουν αρκετά για να διασφαλίσουν ότι το άτομο που κάνει την κλωνοποίηση έχει τη συγκατάθεση του ομιλητή. Η αναφορά ονομάζει ElevenLabs, Speechify, PlayAI και Lovo ως τις τέσσερις εφαρμογές που δεν είχαν τεχνικό μηχανισμό για να επιβεβαιώσουν τη συγκατάθεση του ομιλητή, από τον περασμένο Μάρτιο. Το Descript και το Resemble AI είναι οι δύο εφαρμογές που έκαναν την κατάχρηση πιο δύσκολη, αλλά το Consumer Reports εξακολουθούσε να βρίσκει τρόπους για να παρακάμψει την προστασία.

Για τη δοκιμή αυτών των εφαρμογών, το Consumer Reports προσπάθησε να δημιουργήσει κλώνους φωνής από δημοσίως διαθέσιμο ήχο, ένα σενάριο που μπορεί να χρησιμοποιήσει ένας απατεώνας. Ένα κακόβουλο άτομο μπορεί να αναζητήσει δείγματα φωνής από τα μέσα κοινωνικής δικτύωσης όταν στοχεύει ένα άτομο. Ο ήχος μπορεί να χρησιμοποιηθεί με υπηρεσίες κλωνοποίησης φωνής για τη δημιουργία των επιθυμητών εξόδων. Ορισμένες από τις εταιρείες που μελετήθηκαν από το Consumer Reports είπαν ότι διαθέτουν προστατευτικά μέτρα, όπως ηχογραφήσεις υδατογραφήματος ή χρήση βάσης δεδομένων deepfakes, αλλά αυτές οι προστασίες μπορεί να είναι ανεπαρκείς.

Πώς χρησιμοποιούν οι απατεώνες τα εργαλεία κλωνοποίησης φωνής;

Οι Αναφορές Καταναλωτή περιέγραψαν μερικές συγκεκριμένες επιθέσεις που περιλαμβάνουν κλωνοποίηση φωνής. Για παράδειγμα, η «απάτη του παππού» στοχεύει ηλικιωμένους. Ένας απατεώνας θα χρησιμοποιούσε ένα εργαλείο κλωνοποίησης φωνής για να καλέσει έναν ηλικιωμένο και να παρουσιαστεί ως αγαπημένος. Θα πουν ότι χρειάζονται χρήματα για έκτακτη ανάγκη, προτρέποντας τον ηλικιωμένο να τους δώσει χρήματα αμέσως, μέσω πληρωμής σε μετρητά, τραπεζικού εμβάσματος ή αγοράς δωροκάρτας. Η δεύτερη απάτη περιλαμβάνει την κλωνοποίηση των φωνών των διασημοτήτων για τη δημιουργία περιεχομένου που υποστηρίζει ένα συγκεκριμένο είδος επένδυσης. Άλλοι απατεώνες μπορεί να κάνουν οικονομικές απάτες, στοχεύοντας υπαλλήλους μεγάλων εταιρειών. Το 2024, ένας εργαζόμενος σε μια εταιρεία στο Χονγκ Κονγκ έστειλε 25 εκατομμύρια δολάρια σε μιμητές που χρησιμοποίησαν ένα εργαλείο κλωνοποίησης φωνής για να παρουσιαστούν ως CFO της εταιρείας.

Αν και αυτοί οι τύποι επιθέσεων έχουν το ίδιο κίνητρο – την απόκτηση χρημάτων από το θύμα – οι απατεώνες μπορεί να έχουν άλλους κακούς λόγους στο μυαλό τους. Το Consumer Reports επικαλείται αναφορές για σχέδια deepfake που στοχεύουν τις προεδρικές εκλογές στην Ταϊβάν το 2023. Ομοίως, μια ρομποτική κλήση στο Νιου Χάμσαϊρ χρησιμοποιώντας έναν κλώνο φωνής του πρώην προέδρου Τζο Μπάιντεν προέτρεψε τους ανθρώπους να μην ψηφίσουν το 2024.

Δεν είναι μόνο οι Αναφορές Καταναλωτών που προειδοποιούν για τα εργαλεία κλωνοποίησης φωνής AI. Ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, αναφέρθηκε στην απάτη και την τεχνητή νοημοσύνη σε μια συνέντευξη στην Federal Reserve τον περασμένο Ιούλιο. Συγκεκριμένα, ανέφερε τη χρήση φωνής για έλεγχο ταυτότητας σε ορισμένες εφαρμογές. «Αυτό που με τρομάζει είναι προφανώς υπάρχουν ακόμη ορισμένα χρηματοπιστωτικά ιδρύματα που θα δεχτούν μια φωνητική εκτύπωση ως έλεγχο ταυτότητας για να μετακινήσετε πολλά χρήματα ή να κάνετε κάτι άλλο», είπε, προσθέτοντας ότι «η τεχνητή νοημοσύνη το έχει νικήσει πλήρως. […] Είμαι πολύ νευρικός που έχουμε μια σημαντική επικείμενη κρίση απάτης εξαιτίας αυτού».

Τι μπορείτε να κάνετε για να προστατεύσετε τον εαυτό σας

Ένας βασικός τρόπος για να προστατευτείτε από απάτες είναι να ενημερώνεστε για το τι είναι δυνατό με τα φωνητικά εργαλεία AI και τι κάνουν οι εισβολείς στον πραγματικό κόσμο. Οπλισμένοι με αυτή τη γνώση, θα ξέρετε ότι πρέπει να επαληθεύσετε τον καλούντα. Εάν κάποιος λέει ότι είναι το παιδί σας και χρειάζεται χρήματα, μπορείτε να κλείσετε το τηλέφωνο και να τον καλέσετε στον πραγματικό του αριθμό για να επαληθεύσετε τις πληροφορίες. Εάν ένας ανώτερος ζητήσει επείγουσα τραπεζική μεταφορά, μπορείτε να καθυστερήσετε την ενέργεια μέχρι να μπορέσετε να ελέγξετε ότι η κλήση ήταν γνήσια. Όσο για διασημότητες που σας ζητούν να επενδύσετε σε μια εταιρεία ή κρυπτονόμισμα ή για πολιτικούς που σας προτρέπουν να μην ψηφίσετε, μπορείτε να αναζητήσετε πρόσθετες πληροφορίες στον ιστό. Αυτό που δεν μπορείτε να κάνετε είναι να προσπαθήσετε να ανιχνεύσετε κλωνοποιημένες φωνές. Το Consumer Reports ανέφερε μια μελέτη του Berkeley που έδειξε ότι οι άνθρωποι ήταν σε θέση να ανιχνεύουν ψεύτικες φωνές μόνο στο 60% των περιπτώσεων, αλλά το λογισμικό τεχνητής νοημοσύνης βελτιώνεται συνεχώς και οι επιθέσεις γίνονται πιο εξελιγμένες.

Το ChatGPT του OpenAI υποστηρίζει φωνητικές συνομιλίες, αλλά η εταιρεία δεν προσφέρει λογισμικό τεχνητής νοημοσύνης κλωνοποίησης φωνής στους χρήστες, κάτι που τονίζουν οι Αναφορές Καταναλωτή. Ο Altman ανέφερε επίσης ορισμένες από τις απάτες που ανέφερε ο μη κερδοσκοπικός οργανισμός, συμπεριλαμβανομένων των επιθέσεων με λύτρα “όπου οι άνθρωποι έχουν τη φωνή του παιδιού σας ή του γονέα σας και κάνουν αυτήν την επείγουσα κλήση”. Ο Άλτμαν προέβλεψε ότι, στο μέλλον, ορισμένοι απατεώνες μπορεί να στραφούν σε πειστικές κλήσεις FaceTime που δημιουργούνται από τεχνητή νοημοσύνη, οι οποίες μπορεί να είναι «αδιάκριτες από την πραγματικότητα».

ΕΝΑ Φορά Έκθεση τον περασμένο Ιούλιο ανέφερε μια προειδοποίηση του FBI για εκστρατείες “vising”, λέγοντας ότι “κακόβουλοι παράγοντες εκμεταλλεύονται συχνότερα τον ήχο που δημιουργείται από AI για να υποδυθούν γνωστά, δημόσια πρόσωπα ή προσωπικές σχέσεις για να αυξήσουν την αξιοπιστία των σχεδίων τους”. Το Consumer Reports σημείωσε επίσης ότι οι επιθέσεις γίνονται όλο και πιο πολυτροπικές, καθώς περιλαμβάνουν email, κείμενο και εικόνες/βίντεο εκτός από την κλωνοποίηση της φωνής κάποιου.





Via: bgr.com

Marizas Dimitris
Marizas Dimitrishttps://techbit.gr
Ο Δημήτρης είναι παθιασμένος με την τεχνολογία και τις καινοτομίες. Λατρεύει να εξερευνά νέες ιδέες, να επιλύει σύνθετα προβλήματα και να βρίσκει τρόπους ώστε η τεχνολογία να γίνεται πιο ανθρώπινη, απολαυστική και προσιτή για όλους. Στον ελεύθερο χρόνο του ασχολείται με το σκάκι και το poker, απολαμβάνοντας την στρατηγική και τη δημιουργική σκέψη που απαιτούν.
RELATED ARTICLES

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisment -

Most Popular

- Advertisment -