Ρεκόρ επικίνδυνων περιστατικών το 2024 – Ειδικοί προειδοποιούν για έναν “ψηφιακό Περλ Χάρμπορ”
Η τεχνητή νοημοσύνη μπήκε πλέον βαθιά στην καθημερινότητά μας, αλλά η πορεία της δεν θυμίζει καθόλου ήσυχη πρόοδο. Αντίθετα, για πολλούς ειδικούς μοιάζει με τεχνολογική έκρηξη χωρίς φρένο, με σοβαρές επιπτώσεις σε ασφάλεια, ηθική και ανθρώπινη ζωή.
Σύμφωνα με τη βάση δεδομένων AI Incident Database, το 2024 καταγράφηκαν 253 περιστατικά που σχετίζονται με δυσλειτουργίες ή επικίνδυνη χρήση συστημάτων AI — αριθμός ρεκόρ, που αναμένεται να ξεπεραστεί το 2025.
Περιστατικά που δεν είναι πια «λάθη»
Από συλλήψεις λόγω ελαττωματικής αναγνώρισης προσώπου, μέχρι τον θάνατο εργάτη από ρομπότ σε εργοστάσιο της Volkswagen, τα προβλήματα δεν είναι πια θεωρητικά. Έχουν ονόματα, συνέπειες και, πολλές φορές, ανεπανόρθωτο κόστος.
Η περίπτωση του chatbot που φέρεται να επηρέασε την αυτοκτονία ενός 14χρονου στις ΗΠΑ τον Φεβρουάριο του 2024, αποτυπώνει τους νέους ηθικούς κινδύνους που προκαλεί η μη εποπτευόμενη ανάπτυξη της τεχνητής νοημοσύνης.
Ένα βήμα από το χάος
Ο ερευνητής Μάριο Χέργκερ, από τη Silicon Valley, μιλά για την πιθανότητα ενός “AI Pearl Harbor” – μιας αιφνίδιας, μαζικής καταστροφής, εφόσον δεν παρθούν άμεσα μέτρα ασφάλειας. Ο ίδιος θεωρεί ότι μόνο ένα τραγικό συμβάν μεγάλης κλίμακας μπορεί να ταρακουνήσει τους μηχανισμούς λήψης αποφάσεων.
Το προηγούμενο που όλοι θυμούνται είναι το 1983, όταν ο Σοβιετικός αξιωματικός Στανισλάβ Πετρόφ αγνόησε την ένδειξη πυρηνικής επίθεσης στις οθόνες του και διέσωσε ουσιαστικά τον κόσμο από πιθανό πυρηνικό πόλεμο. «Δεν εμπιστεύτηκα τον υπολογιστή», είπε. Ένα “όχι” που σήμερα φαντάζει πολυτέλεια.
Υπερνοημοσύνη, AGI και αβεβαιότητα
Όσο οι εταιρείες όπως η OpenAI, η Google και η Meta επιταχύνουν την κούρσα για την επίτευξη Γενικής Τεχνητής Νοημοσύνης (AGI), οι προβληματισμοί γίνονται ακόμη πιο έντονοι. Μια υπερνοημοσύνη — μόλις εμφανιστεί — ίσως ξεπεράσει κάθε δυνατότητα ανθρώπινου ελέγχου.
Παρά τις διεθνείς πρωτοβουλίες, όπως η Σύνοδος Κορυφής στο Παρίσι, η στάση μεγάλων παικτών όπως οι ΗΠΑ και το Ηνωμένο Βασίλειο, που δεν υπέγραψαν κοινή διακήρυξη για ασφαλή AI, αποδεικνύει ότι η παγκόσμια προσέγγιση είναι ακόμα ασύνδετη και συμφεροντολογική.
Κίνδυνοι χωρίς χάρτη
«Το AI θυμίζει τα πρώτα χρόνια της πυρηνικής ενέργειας», λέει ο δρ Σον ΜακΓκρέγκορ. «Κάθε λάθος μοιάζει με αεροπορικό δυστύχημα: σπάνιο, αλλά καταστροφικό. Και κάθε νέο μοντέλο, κρύβει και έναν νέο άγνωστο κίνδυνο».
Ο ίδιος δημιούργησε τη βάση δεδομένων των περιστατικών για να αναδεικνύει ακριβώς αυτά τα μονοπάτια — πριν γίνουν δρόμοι χωρίς επιστροφή.
Αν δεν αλλάξει κάτι…
Ο δρόμος προς την τεχνητή υπερνοημοσύνη έχει ήδη ξεκινήσει. Το ερώτημα δεν είναι μόνο πότε θα φτάσουμε εκεί, αλλά αν θα έχουμε καταλάβει τι κάνουμε μέχρι τότε. Και αν θα έχει μείνει αρκετός χρόνος για να αλλάξουμε κατεύθυνση.