Μιλώντας στο podcast No Priors, που παρουσιάζουν οι Elad Gil και Sarah Guo, υποστήριξε ότι η έμφαση σε υπαρξιακούς κινδύνους γύρω από την AI δεν βοηθά και ότι έχει ήδη προκαλέσει «πολλή ζημιά» όταν προέρχεται από «πολύ σεβαστά» πρόσωπα.
Ο Huang έδωσε ιδιαίτερη βαρύτητα στις κινήσεις στελεχών του κλάδου που απευθύνονται σε κυβερνήσεις για ρυθμίσεις και υποχρεωτικές δικλίδες ασφαλείας. Αναρωτήθηκε ποιος είναι ο σκοπός αυτής της αφήγησης και ποιες είναι οι προθέσεις όσων τη διακινούν, θέτοντας το ερώτημα γιατί επιδιώκονται κανονισμοί που, όπως είπε, θα μπορούσαν να «ασφυκτιάσουν» τις startups.
Στην ίδια συζήτηση αναγνωρίστηκε ότι η «ρυθμιστική αιχμαλωσία» αποτελεί πραγματικό κίνδυνο, ιδιαίτερα όταν εταιρείες πολλών δισεκατομμυρίων επιχειρούν να κατοχυρώσουν το προβάδισμά τους αξιοποιώντας τον πλούτο τους για να επηρεάσουν πολιτικούς και να διαμορφώσουν ευνοϊκή πολιτική. Παράλληλα, σημειώνεται ότι οι παίκτες της AI έχουν ήδη στραφεί στο lobbying.
Σύμφωνα με τη Wall Street Journal, εταιρείες της Silicon Valley έχουν ήδη διαθέσει περισσότερα από 100 εκατ. δολάρια σε νέα Super PACs με στόχο την προώθηση φιλο-AI μηνυμάτων ενόψει των ενδιάμεσων εκλογών του 2026. Στο ίδιο πλαίσιο, καταγράφεται ότι οι κίνδυνοι σε κλίμακα κοινωνίας μπορούν να χρησιμοποιούνται και ως τακτική μάρκετινγκ, καθώς παρουσιάζουν τα προϊόντα ως γεμάτα απεριόριστη προοπτική και ενισχύουν την ιδέα ότι οι εταιρείες πρέπει να διατηρούν τον έλεγχο για λόγους «ασφάλειας».
Ο Huang υποστήριξε ότι, όταν το μεγαλύτερο μέρος της δημόσιας συζήτησης περιστρέφεται γύρω από «το τέλος του κόσμου» και την απαισιοδοξία, αυτό τρομάζει τους ανθρώπους και τους αποθαρρύνει από επενδύσεις στην AI, οι οποίες, κατά την άποψή του, θα μπορούσαν να την κάνουν ασφαλέστερη, πιο λειτουργική, πιο παραγωγική και πιο χρήσιμη για την κοινωνία. Ωστόσο, δεν παρουσίασε συγκεκριμένο μηχανισμό για το πώς η αυξημένη χρηματοδότηση υποδομών AI μεταφράζεται σε μεγαλύτερη ασφάλεια, πέρα από την ιδέα ότι «περισσότερο είναι καλύτερο».
Παράλληλα, επισημαίνεται ότι δεν υπάρχει σαφής λύση για τον κίνδυνο εκτοπισμού θέσεων εργασίας, όχι απαραίτητα επειδή η AI αντικαθιστά άμεσα την ανθρώπινη εργασία, αλλά επειδή οι εταιρείες, στην προσπάθειά τους να κυνηγήσουν «το επόμενο μεγάλο πράγμα», περιορίζουν τις ευκαιρίες για υποψήφιους εργαζόμενους σε entry-level ρόλους, ενώ οι πρώιμες επενδύσεις στην AI έχουν αποδειχθεί περισσότερο «ρουφήχτρα χρημάτων» παρά γεννήτρια κερδών.
Το ίδιο ισχύει για ζητήματα παραπληροφόρησης, κατάχρησης και την εντεινόμενη κρίση ψυχικής υγείας που, όπως αναφέρεται, επιδεινώνεται από την AI, με την παρατήρηση ότι η κοινωνία λειτουργεί ως «beta tester» στην πορεία προς απαντήσεις. Η προσέγγιση που περιγράφεται ως κυρίαρχη λύση είναι η επιτάχυνση επενδύσεων και ανάπτυξης με την πεποίθηση ότι, στο τέλος, μια υπερνοημοσύνη θα επιλύσει αυτά τα προβλήματα, ενώ τίθεται και το ερώτημα για πιθανά κίνητρα πίσω από κάθε πλευρά της αντιπαράθεσης.

