Αρχική | Ειδήσεις | Επιστήμη | Νιλ Σαγκς στην «Κ»: Το «τζίνι» έχει βγει από το μπουκάλι

Νιλ Σαγκς στην «Κ»: Το «τζίνι» έχει βγει από το μπουκάλι

Μέγεθος γραμμάτων: Decrease font Enlarge font
Νιλ Σαγκς στην «Κ»: Το «τζίνι» έχει βγει από το μπουκάλι

«Μπορούμε να σχεδιάσουμε ένα σύστημα τεχνητής νοημοσύνης που οι αποφάσεις του να είναι αναστρέψιμες και οι δημιουργοί του να είναι υπόλογοι. Αλλά απέχουμε ακόμα από το σημείο αυτό», παραδέχεται μιλώντας στην «Κ» ο Νιλ Σαγκς, αντιπρόεδρος της Microsoft. Ο κ. Σαγκς μίλησε στο Φόρουμ των Δελφών για τους κινδύνους της διαδικασίας αποφάσεων μέσω του αλγόριθμου στο πλαίσιο της τεχνητής νοημοσύνης (A.I.) και θέλησε να καθησυχάσει το ακροατήριό του για τα όρια της νέας τεχνολογίας αλλά και τις δυνατότητες των χρηστών της να τη χρησιμοποιήσουν κοινωνικά υπεύθυνα. Πιο σημαντικό ζήτημα για τον κ. Σαγκς είναι η λεγόμενη ακεραιότητα των δεδομένων που χρησιμοποιούνται από τις μηχανές για να πάρουν αποφάσεις.

– Tι εννοείτε λέγοντας ότι πρέπει να υπάρχει «ακεραιότητα» των δεδομένων;

– Υπάρχουν πολλές διαφορετικές διαστάσεις. Η μία είναι όταν ξέρεις ότι σε παρακολουθούν. Η συμπεριφορά σου δεν είναι φυσιολογική, καθώς ξέρεις ότι παρακολουθείσαι. Αυτές οι εικόνες είναι ένα τυπικό πρόβλημα ακεραιότητας των δεδομένων που αποτυπώνονται από την κάμερα. Για παράδειγμα, έχω έναν αισθητήρα (σ.σ. δείχνει το δαχτυλίδι του) που μετράει τιμές στο σώμα μου. Δεν υποδύομαι κάτι για να το μετράει. Αυτή είναι μια διάσταση ακεραιότητας των δεδομένων. Η άλλη διάσταση είναι πώς ομαδοποιείς τα δεδομένα ή τα χειραγωγείς. Μπορείς να τα παραποιήσεις, αλλά ίσως δεν χρειάζεται αν τα χωρίσεις σε ομάδες. Για παράδειγμα, εγώ ανήκω σε μια μειονότητα στις ΗΠΑ, είμαι Αφροαμερικανός. Ή μερικά Αφροαμερικανός: κατά 61% είμαι ευρωπαϊκής καταγωγής, κατά 39% είμαι αφρικανικής καταγωγής, αλλά στις ΗΠΑ προσδιορίζομαι ως Αφροαμερικανός. Αν λοιπόν ζητήσεις από ένα πρόγραμμα να βγάλει συμπεράσματα για ένα δείγμα φυλακισμένων που είναι Αφροαμερικανοί με στολές φυλακής, τι θα σου πει ο αλγόριθμος; Θα είμαστε λοιπόν τίμιοι και διαφανείς με τις ομάδες δεδομένων που έχουμε; Αν δεν είναι τα δεδομένα μας διαφανή και αξιόπιστα, τότε ούτε η τεχνολογία μας είναι.

– Αρα η εμπιστοσύνη αφορά πρώτα την ακεραιότητα των δεδομένων και μετά την ακεραιότητα της κατασκευής του αλγόριθμου.

– Πρέπει να έχουμε ιούς που καθαρίζουν μολυσμένα δεδομένα, η «καθαρότητα» των οποίων έχει παραβιαστεί. Χρειαζόμαστε «καθαριστικά» για δεδομένα των οποίων η ακεραιότητα έχει χαθεί. Ως Microsoft θα επιχειρηματολογούσα ότι, αν πρόκειται να δουλέψετε με τα δεδομένα μου σε ένα πρόγραμμα τεχνητής νοημοσύνης, θα ήθελα να γνωρίζω πώς δουλεύετε.

– Θα μπορούσαν στο μέλλον οι δίκες να κρίνονται από μηχανές που δουλεύουν με τεχνητή νοημοσύνη;

– Αν κρίνει κανείς π.χ. από τις εξετάσεις DNA που χρησιμοποιούνται στα δικαστήρια, αυτό γίνεται ήδη, αλλά περισσότερο από τη σκοπιά της χρήσης ενός εργαλείου παρά από τη σκοπιά μιας διαδικασίας απόφασης. Αρχισα να γράφω ένα βιβλίο επιστημονικής φαντασίας για την εισαγωγή Α.Ι. στο σύστημα Δικαιοσύνης. Από μηχανές αλλά και ανθρώπους που θα χρησιμοποιήσουν Α.Ι. Κατέληξα στο εξής συμπέρασμα: «Μη χρησιμοποιείς τεχνολογία εκεί όπου χρειάζεσαι την πολιτική». Η τεχνολογία δεν είναι ουδέτερη. Από τη στιγμή που θα εισαχθεί, έχει συνέπειες για την κοινωνία. Αποτελέσματα συστημάτων αναγνώρισης προσώπων (facial recognition) θα αρχίσουν να εισάγονται στο σύστημα απονομής Δικαιοσύνης. Το 80% των υποθέσεων, που κρίνονται έπειτα από καιρό εσφαλμένες στις ΗΠΑ, οφείλεται σε λανθασμένες μαρτυρίες ανθρώπων. Εδώ η τεχνολογία θα ήταν καλοδεχούμενη, εξαρτάται πώς χρησιμοποιεί κανείς το εργαλείο.

– Δηλαδή χρειάζεται ρύθμιση.

– Το πρώτο ποδήλατο εισήχθη στις ΗΠΑ το 1817. Εως το 1890 ήταν παράνομο να καβαλάς ποδήλατο σε οποιoνδήποτε δημόσιο χώρο σε κάθε πολιτεία, αλλά τώρα δεν έχουμε χρόνο. Δεν έχουμε 80 χρόνια να περιμένουμε για να δούμε τι θα γίνει με σετ δεδομένων και αλγόριθμους που χρησιμοποιούνται στην A.I., γιατί το τζίνι έχει βγει από το μπουκάλι... Δύο πλευρές έχει η ανάπτυξη της τεχνολογίας: την ωρίμανση και τη χρήση της. Πάντα πρέπει να ρυθμίζουμε τη χρήση της. Δεν θέλουμε να σταματήσουμε την ωρίμανσή της, αλλά θέλουμε να είναι υπόλογοι εκείνοι που δουλεύουν στη χρήση και στην ωρίμανσή της. Στη Microsoft έχουμε συμφωνήσει με την Google, την Amazon, ακόμα και την Alibaba για το πώς θα χρησιμοποιηθεί αυτή η τεχνολογία.

– Στην Ελλάδα έχουμε ένα πρόγραμμα του υπουργείου Υγείας, που ζητάει όλα τα δεδομένα ασθενών από τα κρατικά νοσοκομεία και το ερώτημα είναι αν η ανωνυμοποίησή τους είναι επαρκής.

– Ενα σοβαρό ερώτημα. Το θέμα δεν είναι ποια κυβέρνηση είναι καλή ή κακή στη χρήση δεδομένων, αλλά το να αντιλαμβάνονται οι άνθρωποι τι γίνεται με τα δεδομένα τους. Πού πρόκειται να χρησιμοποιηθούν και πώς. Αυτή τη συζήτηση πρέπει να αρχίσουμε να κάνουμε. Αντί γι’ αυτό συζητάμε το τι είναι η ζωή και το αν αυτή θα υποκατασταθεί. Μπορεί ναι, μπορεί όχι, αλλά δεν θα ήταν καλύτερα να πάρουμε κάποια ρυθμιστικά μέτρα για την περίπτωση που αυτό γίνει; Στις ΗΠΑ, κάθε γιατρός τον οποίο επισκέπτεσθε δίνει τα δεδομένα σας σε φαρμακοβιομηχανίες. Οι φαρμακευτικές βιομηχανίες βρίσκουν με αυτά τα δεδομένα κάποιες λύσεις, κάνουν εφευρέσεις με τη μορφή σκευασμάτων που δεν είναι σε θέση να αγοράσουν όλοι οι άνθρωποι. Υπάρχουν αυτοί που έχουν δώσει υλικό για βιοψία χωρίς ποτέ να αποζημιωθούν. Είναι αυτό δίκαιο; Δεν γνωρίζω την απάντηση στο ερώτημα αυτό. Αν όμως έδινες μια δίκαιη αποζημίωση σε αυτούς τους ανθρώπους, τότε και εκείνοι θα εμπιστεύονταν περισσότερο αυτά τα δεδομένα. Οταν ακούω ότι το «23 and me» (σ.σ. εταιρεία ανάλυσης DNA) μοιράζεται τις πληροφορίες για την καταγωγή μου με τις Αρχές... Δεν με είχαν ρωτήσει, δεν τους έχω δώσει την άδεια. Οι ισχύοντες νόμοι έχουν δημιουργηθεί για τις προηγούμενες γενιές και θα πρέπει να εξετάσουμε αυτούς τους νόμους και τα δεδομένα και να κάνουμε μια περαιτέρω συζήτηση. Πρέπει να επιταχυνθεί αυτό.

– Η Κίνα, λένε φίλοι μηχανικοί, προχωρεί στην τεχνολογία αναγνώρισης προσώπου, επειδή συλλέγει δεδομένα που στις χώρες της Δύσης, λόγω νομοθεσίας, δεν είναι δυνατόν να συγκεντρωθούν.

– Η Κίνα είναι μια ιδιαίτερη περίπτωση ως χώρα γενικότερα και έχει ενδιαφέρον να την αναλύουμε και να την προσεγγίζουμε με ένα ιστορικό βάθος και ιστορικά κριτήρια. Αν δείτε την ιστορία της Κίνας, πρόκειται για μια αλυσίδα εξεγέρσεων. Παραδοσιακά, μέσα στoυς αιώνες, οι εκάστοτε ηγέτες της Κίνας θεωρούν εαυτούς μια ανάσα από την επόμενη εξέγερση και η ασφάλεια αποτελούσε πάντοτε προτεραιότητα. Θα μπορούσε κάποιος να καταλήξει στο συμπέρασμα ότι η Κίνα τα επόμενα χρόνια θα «τεντώσει τα όρια» όσο μπορεί για να χρησιμοποιήσει το facial recognition για λόγους ασφάλειας και κατ’ επέκταση να γίνει ειδική σε αυτές τις τεχνολογίες. Σίγουρα όμως αυτή η εξειδίκευση δεν θα τους κάνει ειδικούς σε κάθε τομέα της τεχνητής νοημοσύνης. Δεν θα έχουν το χρυσό σε κάθε κατηγορία! Η Κίνα θα είναι επιτυχημένη σε κάποιους τομείς. Στις ΗΠΑ έχουμε κάποια χαρακτηριστικά ώστε να είμαστε επιτυχημένοι σε άλλους τομείς. Το ίδιο ισχύει και για την Ευρώπη, που νομίζω ωστόσο πως θα πρέπει να κινηθεί πιο γρήγορα και να αποφασίσει πού θέλει να εξειδικευθεί, να γίνει καλή στην τεχνητή νοημοσύνη και να επενδύσει γενναία στον τομέα αυτό.

Πηγή:www.kathimerini.gr

Διαβάστε το άρθρο από την πηγή

Εγγραφή RSS για αυτά τα σχόλια Σχόλια (0)

συνολικά: | προβολή:

Σχολιάστε το άρθρο comment

Παρακαλώ εισάγετε τον κωδικό που βλέπετε στην εικόνα:

Eshop
  • email Αποστολή άρθρου
  • print Εμφάνιση εκτύπωσης
  • Plain text Προβολή ώς Plain Text