Οι παγκόσμιοι ηγέτες πρέπει να αφυπνιστούν για τους κινδύνους της τεχνητής νοημοσύνης, αναφέρουν κορυφαίοι εμπειρογνώμονες

Οι παγκόσμιοι ηγέτες πρέπει να αφυπνιστούν για τους κινδύνους της τεχνητής νοημοσύνης, αναφέρουν κορυφαίοι εμπειρογνώμονες

Λίγο πριν από τη δεύτερη Σύνοδο Κορυφής για την Ασφάλεια της Τεχνητής Νοημοσύνης, σήμερα και αύριο, 21 και 22 Μαϊου, στη Σεούλ, κορυφαίοι επιστήμονες σε αυτόν τον τομέα ζητούν από τους παγκόσμιους ηγέτες να αναλάβουν ισχυρότερη δράση για τους κινδύνους της τεχνητής νοημοσύνης, διαπιστώνοντας ότι η πρόοδος είναι ανεπαρκής μετά την πρώτη Σύνοδο που διεξήχθη πριν από έξι μήνες.

Σε άρθρο που δημοσίευσαν στο περιοδικό «Science», 25 επιστήμονες από τις ΗΠΑ, την ΕΕ, το Ηνωμένο Βασίλειο και την Κίνα αναφέρουν ότι στην πραγματικότητα δεν έχουν γίνει αρκετά για την προστασία μας από τους κινδύνους της τεχνολογίας. Όπως επισημαίνουν, είναι επιτακτική ανάγκη οι παγκόσμιοι ηγέτες να λάβουν σοβαρά υπόψη τους την πιθανότητα ότι μέσα στην τρέχουσα ή την επόμενη δεκαετία θα αναπτυχθούν εξαιρετικά ισχυρά συστήματα γενικής τεχνητής νοημοσύνης, που θα υπερτερούν των ανθρώπινων ικανοτήτων σε πολλούς κρίσιμους τομείς.

Την ίδια ώρα, παρ’ όλο που οι κυβερνήσεις παγκοσμίως έχουν κάνει κάποιες προσπάθειες να εισάγουν αρχικές κατευθυντήριες γραμμές, οι κινήσεις τους είναι αναντίστοιχες με την πιθανότητα ταχείας προόδου, που αναμένουν πολλοί ειδικοί.

Επιπλέον, εντοπίζουν ότι η τρέχουσα έρευνα για την ασφάλεια της τεχνητής νοημοσύνης είναι ελλιπής, καθώς μόνο το 1-3% των δημοσιεύσεων για την τεχνητή νοημοσύνη αφορά στην ασφάλεια. Σημειώνουν ότι δεν υπάρχουν ούτε οι μηχανισμοί ούτε οι θεσμοί για την πρόληψη της κακής χρήσης της τεχνολογίας.

Οι επιστήμονες ζητούν από τις κυβερνήσεις να δημιουργηθούν όργανα εμπειρογνωμόνων που θα δρουν με ταχύτητα για την εποπτεία της τεχνητής νοημοσύνης, στα οποία να παρασχεθεί πολύ μεγαλύτερη χρηματοδότηση από αυτήν που προβλέπεται. Επίσης, να δίνουν εντολή για πολύ πιο αυστηρές αξιολογήσεις κινδύνου, αλλά και να απαιτούν από τις εταιρείες τεχνητής νοημοσύνης να θέτουν ως προτεραιότητα την ασφάλεια και να αποδεικνύουν ότι τα συστήματά τους δεν μπορούν να προκαλέσουν βλάβη. Τέλος, να αναλάβουν ηγετικό ρόλο στη δημιουργία ρυθμιστικού πλαισίου.

Το άρθρο συνυπογράφουν, μεταξύ άλλων, ο ιστορικός και φιλόσοφος Γιουβάλ Νόα Χαράρι, ο επιστήμονας Πληροφορικής και πρωτοπόρος της τεχνητής νοημοσύνης με τις περισσότερες ακαδημαϊκές αναφορές στον κόσμο, Τζέφρι Χίντον, και η μελετήτρια θεμάτων ασφαλείας τεχνητής νοημοσύνης με τις περισσότερες αναφορές, Ντον Σονγκ.

Μ.Κουζινοπούλου

©Πηγή: ΑΠΕ-ΜΠΕ

Loading

Play