Θα λειτουργούν κάποτε οι μηχανές ως πρόσωπα με συνείδηση;

Θα λειτουργούν κάποτε οι μηχανές ως πρόσωπα με συνείδηση;

Στην υποβλητική ταινία «2001-Οδύσσεια του Διαστήματος» του Στάνλεϊ Κιούμπρικ, ο υπολογιστής HAL 9000 εκλιπαρεί τον άνθρωπο Ντέιβ να μην τον αποσυνδέσει: «Φοβάμαι Ντέιβ. Μην το κάνεις». Στην τηλεοπτική σειρά «Star Trek: The Next Generation», ο κυβερνοεπιστήμονας Μπρους Μάντοξ ζητά να διαλύσει το ανθρωποειδές Data στα επιμέρους μέρη του, προκειμένου να αντιληφθεί πώς λειτουργεί. Όμως, η τεχνητή νοημοσύνη στον ποζιτρονικό εγκέφαλο του Data αντιδρά. Τo ανθρωποειδές φοβάται ότι το πείραμα μπορεί να σημάνει την καταστροφή του και η υπόθεση καταλήγει στo Δικαστήριο του «Starfleet», όπου εξετάζεται το δικαίωμα της Τεχνητής Νοημοσύνης να διαχειρίζεται τον «εαυτό» της. Ήδη από το 1968, οπότε γυρίστηκε η ταινία του Κιούμπρικ, το ερώτημα απασχολεί επιστήμονες πληροφορικής, νομικούς και φιλοσόφους: θα λειτουργούν κάποτε οι μηχανές ως «πρόσωπα» με ανθρώπινα χαρακτηριστικά; Κι αν ναι, ποιο θα πρέπει να είναι το ηθικό τους status και τα δικαιώματά τους και ποια η ηθική τους ευθύνη; 

Διαβάστε επίσης: Θα μπορούν κάποτε να σκεφτούν οι μηχανές με τεχνητή νοημοσύνη;

«Η ίδια η κατανόηση της έννοιας του προσώπου είναι ένα τεράστιο ζήτημα είτε μιλάμε για μηχανές είτε όχι» σημειώνει μιλώντας στο ΑΠΕ-ΜΠΕ ο καθηγητής Γνωσιολογίας και Ηθικής Φιλοσοφίας του Εθνικού και Καποδιστριακού Πανεπιστημίου Αθηνών (Τμήμα Ιστορίας και Φιλοσοφίας της Επιστήμης), Στέλιος Βιρβιδάκης και συνεχίζει: «Για παράδειγμα, τους φιλοσόφους απασχολεί το αν θα θεωρήσουμε πρόσωπο ένα δυνάμει πρόσωπο, όπως ένα ανεπτυγμένο ανθρώπινο έμβρυο. Όταν λέμε ότι κάποιος είναι πρόσωπο, του αναγνωρίζουμε ηθικό δικαίωμα στον αυτοπροσδιορισμό και αυτό προϋποθέτει συνείδηση και αυτοσυνειδησία, αίσθηση εαυτού, ενός εαυτού που διαθέτει ορθολογικότητα, μπορεί να θέτει σκοπούς και να προσπαθεί να τους εκπληρώνει».

 

Πώς είναι να είσαι ρομπότ; 

Πώς όμως μπορεί να κρίνει κάποιος αν μια μηχανή θα έχει κάποτε αυτό που λέμε υποκειμενική αίσθηση, δηλαδή την αίσθηση του να νιώθεις ότι είσαι «αυτός», «αυτό το ον»; «Αυτό θα μπορούσαμε να το καταλάβουμε μόνο αν μπαίναμε “μέσα” στο ρομπότ. Και βέβαια το ίδιο ερώτημα έχει τεθεί και για τα ζώα από έναν από τους πλέον καταξιωμένους σύγχρονους Αμερικανούς φιλοσόφους, τον Τόμας Νέιγκελ, στο δοκίμιό του “Πώς είναι να είσαι νυχτερίδα;”, ο οποίος υποστηρίζει ότι η υποκειμενική σκοπιά της συνείδησης δεν μπορεί να εξηγηθεί πλήρως από οποιαδήποτε επιστήμη επιχειρήσει να τη συλλάβει “από έξω”. Το ζήτημα είναι λοιπόν αν θα μπορούσαμε να πούμε ότι οι μηχανές θα αποκτήσουν κάποτε πραγματική αίσθηση του εγώ τους. Η αίσθηση αυτή πηγαίνει πέρα από τη νοητική ικανότητα, τη νοημοσύνη που ήδη επιτρέπει στις μηχανές να επιλύουν προβλήματα πολύ ταχύτερα από τον άνθρωπο και φαίνεται να συνίσταται σε δύο κυρίως πράγματα: Πρώτον, στην αυτεπίγνωση, στην ικανότητα να διαμορφώνει ένα ον σύλληψη του εαυτού του και να αναφέρεται σε αυτήν με εκφράσεις όπως “εγώ πιστεύω ότι…”, “εγώ επιτελώ”. Δεύτερον, στο υποκειμενικό αίσθημα συνειδητότητας: κάπως είμαι, κάπως νιώθω. Για να θεωρηθούν οι μηχανές πρόσωπα από οντολογική σκοπιά πρέπει να διαθέτουν κατ’αρχήν αυτά τα χαρακτηριστικά» εξηγεί.

 

Ο λειτουργισμός και το νοητικό πείραμα του Κινέζικου Δωματίου 

Κατά τον κ.Βιρβιδάκη, η φιλοσοφική θεωρία του νου, που μας επιτρέπει να πάμε ευκολότερα στην παραδοχή ότι οι μηχανές ενδέχεται κάποτε να αποκτήσουν συνείδηση και άρα, κατ΄επέκταση, να θεωρηθούν πρόσωπα και να έχουν ηθικό status και δικαιώματα, είναι ο λειτουργισμός. «Βάσει του λειτουργισμού οι συνειδητές νοητικές διαδικασίες δεν είναι τίποτα περισσότερο από ένα σύνολο λειτουργιών επεξεργασίας εισερχόμενων δεδομένων (input), που οδηγούν στην εκδήλωση κάποιων αντιδράσεων, στη γλώσσα της πληροφορικής “εξερχομένων στοιχείων” (output). Κατά τον λειτουργισμό, η συνειδητότητα στον άνθρωπο, αλλά και σε άλλα νοήμονα όντα, δεν είναι τίποτα περισσότερο από χειρισμός συμβόλων, κατά την αλληλεπίδραση με το περιβάλλον τους, και άρα οι μηχανές μπορούν να αποκτήσουν συνειδητότητα, γιατί κι αυτές σύμβολα χειρίζονται» σημειώνει, υπενθυμίζοντας ωστόσο ότι όσοι δεν αποδέχονται αυτή την προοπτική ως πιθανή, επικαλούνται το νοητικό πείραμα του «Κινέζικου Δωματίου» του Αμερικανού φιλοσόφου John Searle (https://plato.stanford.edu/entries/chinese-room/).

Μια μηχανή που όταν ρίχνει πύραυλο βλέπει αριθμούς και όχι ανθρώπους ή μια καντιανή μηχανή; 
 Αν όμως κάποια στιγμή οι μηχανές θεωρηθούν πρόσωπα, τότε δεν θα πρέπει πέρα από δικαιώματα να τους αποδίδεται και ηθική ευθύνη για τις πράξεις τους; «Για να απαντηθεί το ερώτημα περί ηθικής ευθύνης, πρέπει να δούμε όχι απλώς πώς είναι οι μηχανές από μόνες τους, αλλά και τον τρόπο με τον οποίο θα ενταχθούν στην ανθρώπινη ζωή. Θα έχουν σχέση υπηρετική ή ισότιμη; Τι είδους δραστηριότητες και ευθύνες θα τους αποδώσουμε; Ο καταλογισμός της ηθικής ευθύνης λοιπόν, έχει να κάνει με τον ρόλο που θα τους αναθέσουμε: θα είναι υπηρετικός, συμμετοχικός, συντροφικός; Η ευθύνη συνδέεται πολύ ως έννοια και με την ελευθερία. Αν οι μηχανές έχουν έστω και λίγη ελευθερία κάποιας μορφής, τότε πρέπει να τους αποδίδεται ευθύνη. Εδώ μπαίνει στη μέση και το δίκαιο. Οι μηχανές, από τη στιγμή που θα ενταχθούν ουσιαστικά στη ζωή μας και τους θεσμούς μας, από τη στιγμή που θα αναλάβουν ρόλους κοινωνικούς (γκουβερνάντα, χειρουργός), ακόμη και αν δεν έχουν πλήρη ελευθερία, θα πρέπει να έχουν ηθική ευθύνη. Και βέβαια, εδώ μπαίνουν στη συζήτηση και οι δύσκολες αποφάσεις: όταν η μηχανή σε μια πολεμική σύγκρουση ή κατά την προσπάθεια εξουδετέρωσης επικίνδυνων τρομοκρατών χρειαστεί να ρίξει έναν πύραυλο με παράπλευρες απώλειες, θα μετρήσει απλά “κεφάλια” που θα χαθούν και “κεφάλια” που θα σωθούν, έτσι ώστε να προκύψει μεγιστοποίηση της ωφέλειας, χωρίς να υπολογίσει τους αριθμούς ως ανθρώπους με εγγενή αξία και με πλήρη δικαιώματα; Θα κάνει δηλαδή ένα ψυχρό ωφελιμιστικό calculus ή θα είναι μια καντιανή μηχανή με δεοντοκρατική ηθική; Και τελικά η ευθύνη θα μετατεθεί στον προγραμματιστή της ή μήπως θα μετακινηθεί από τον προγραμματιστή στη μηχανή;».

©Πηγή: amna.gr

Loading

Play