Πώς να αναπτύξετε ηθικά πρότυπα για την τεχνητή νοημοσύνη

By | May 27, 2023

Η Elizabeth Holmes έπεισε τους επενδυτές και τους ασθενείς ότι διέθετε ένα πρωτότυπο μηχάνημα μικροδειγματοληψίας που μπορούσε να εκτελέσει ένα ευρύ φάσμα σχετικά ακριβών δοκιμών χρησιμοποιώντας ένα κλάσμα του όγκου αίματος που απαιτείται συνήθως. Είπε ψέματα; Οι συσκευές Edison και miniLab δεν λειτουργούσαν. Ακόμη χειρότερα, η εταιρεία ήξερε ότι δεν λειτουργούσε, ωστόσο συνέχισε να παρέχει στους ασθενείς ανακριβείς πληροφορίες σχετικά με την υγεία τους, λέγοντας ακόμη και σε υγιείς έγκυες ότι είχαν αποβολές και ότι παρήγαγαν ψευδώς θετικά αποτελέσματα σε τεστ προσυμπτωματικού ελέγχου καρκίνου και HIV.

Όμως, ο Χολμς, ο οποίος πρόκειται να φυλακιστεί μέχρι τις 30 Μαΐου, καταδικάστηκε για εξαπάτηση επενδυτών. δεν καταδικάστηκε για εξαπάτηση ασθενών. Αυτό συμβαίνει επειδή οι ηθικές αρχές για τη γνωστοποίηση των επενδυτών και οι νομικοί μηχανισμοί που χρησιμοποιούνται για την ανάληψη δράσης κατά απατεώνων όπως ο Χολμς έχουν αναπτυχθεί καλά. Δεν επιβάλλονται πάντα καλά, αλλά οι νόμοι είναι στα βιβλία. Στις ιατροτεχνολογικές συσκευές, τα πράγματα είναι πιο σκοτεινά: Ενθαρρύνοντας την καινοτομία, τα νομικά πρότυπα δίνουν ευρεία πρόσβαση στους ανθρώπους που προσπαθούν να αναπτύξουν τεχνολογίες, με την κατανόηση ότι μερικές φορές ακόμη και όσοι κάνουν το καλύτερο δυνατό το κάνουν λάθος.

Βλέπουμε μια παρόμοια δυναμική με την τρέχουσα συζήτηση για τη ρύθμιση της τεχνητής νοημοσύνης.
Οι νομοθέτες δεν θέλουν να το κάνουν, καθώς οι προβλέψεις για την ημέρα της μοίρας συγκρούονται με θέσεις πώλησης που κόβουν την ανάσα για το πώς η τεχνολογία AI θα αλλάξει τα πάντα. Είτε το μέλλον θα είναι μια αλγοριθμικά δημιουργημένη πανάκεια για την ευτυχία και οι μαθητές δεν θα αναγκαστούν ποτέ να γράψουν άλλη εργασία, είτε όλοι θα μετατραπούμε σε ραδιενεργά ερείπια. (Σε αυτή την περίπτωση, οι μαθητές δεν θα χρειαζόταν ακόμα να γράψουν εργασίες τριμήνου.) Το πρόβλημα είναι ότι οι νέες τεχνολογίες χωρίς ηθική και νομική ρύθμιση μπορούν να προκαλέσουν πολύ κακό, και συχνά, όπως συνέβαινε με τους ασθενείς του Theranos, δεν το κάνουμε. Δεν έχω καλό τρόπο για τους ανθρώπους να ανακτήσουν τις απώλειές τους. Ταυτόχρονα, λόγω της ταχέως εξελισσόμενης φύσης της, η τεχνολογία είναι ιδιαίτερα δύσκολο να ρυθμιστεί, με χαλαρά πρότυπα και περισσότερες ευκαιρίες για απάτη και κατάχρηση, είτε μέσω φανταχτερών startups όπως η Holmes είτε με πρόχειρα συστήματα κρυπτονομισμάτων και NFT.

Ο Χολμς είναι μια χρήσιμη περίπτωση για την ανάπτυξη ηθικών προτύπων στην τεχνητή νοημοσύνη, επειδή έφτιαξε ένα κυριολεκτικά αδιαφανές κουτί και ισχυρίστηκε ότι οι άνθρωποι δεν μπορούσαν να δουν ή να αναφέρουν τι υπήρχε μέσα. Κάτι τέτοιο, είπε, θα παραβίαζε την πνευματική του ιδιοκτησία, ακόμη και όταν η τεχνολογία έλεγε σε υγιείς ασθενείς ότι πέθαιναν. Βλέπουμε πολλές από αυτές τις ίδιες δυναμικές στη συζήτηση γύρω από την ανάπτυξη ηθικών προτύπων και κανονισμών για την τεχνητή νοημοσύνη.

Η ανάπτυξη δεοντολογικών προτύπων που θα αποτελέσουν τη βάση για τη ρύθμιση της τεχνητής νοημοσύνης είναι μια νέα πρόκληση. Αλλά είναι μια πρόκληση για την οποία έχουμε τα εργαλεία και μπορούμε να εφαρμόσουμε τα μαθήματα που αντλήσαμε από την αποτυχία να διαχειριστούμε άλλη τεχνολογία.

Όπως οι συσκευές Theranos, οι τεχνολογίες τεχνητής νοημοσύνης είναι μικρά κουτιά που είναι γενικά κατανοητά από τους σχεδιαστές τους (τουλάχιστον όπως και από οποιονδήποτε), αλλά συχνά δεν υπόκεινται σε εξωτερικό έλεγχο. Η αλγοριθμική λογοδοσία απαιτεί κάποιο βαθμό διαφάνειας. Εάν ένα μαύρο κουτί λάβει μια απόφαση που προκαλεί βλάβη ή έχει αντίκτυπο που εισάγει διακρίσεις, πρέπει να το ανοίξουμε για να μάθουμε εάν αυτά τα σφάλματα οφείλονται σε περιστασιακό τυφλό σημείο, σε συστηματικό λάθος στο σχεδιασμό ή (όπως στην περίπτωση του Χολμς) σε απάτη. αναίσχυντος. Αυτή η διαφάνεια είναι σημαντική τόσο για την πρόληψη μελλοντικών ζημιών όσο και για τον καθορισμό της λογοδοσίας και της ευθύνης για υπάρχουσες ζημίες.

Υπάρχει πολύς επείγουσα ανάγκη σχετικά με τη ρύθμιση της τεχνητής νοημοσύνης. Τόσο οι μεγάλες εταιρείες τεχνητής νοημοσύνης όσο και οι ερευνητές πιέζουν τους νομοθέτες να δράσουν γρήγορα και, ενώ οι προτάσεις ποικίλλουν, περιλαμβάνουν σταθερά ορισμένες απαιτήσεις διαφάνειας. Για την αποφυγή συστημικών προβλημάτων και απάτης, ακόμη και η νομοθεσία περί πνευματικής ιδιοκτησίας δεν θα πρέπει να εμποδίζει τις μεγάλες εταιρείες τεχνητής νοημοσύνης να δείχνουν πώς λειτουργεί η τεχνολογία τους. Η πρόσφατη μαρτυρία του Sam Altman στο Κογκρέσο για το OpenAI και το ChatGPT περιελάμβανε μια συζήτηση για το πώς λειτουργεί η τεχνολογία, αλλά απλώς γρατσούνισε την επιφάνεια. Ενώ ο Άλτμαν φαίνεται πρόθυμος να δημιουργήσει έναν κανονισμό, απειλεί επίσης να αποχωρήσει από την Ευρωπαϊκή Ένωση βάσει των προτεινόμενων κανονισμών για την τεχνητή νοημοσύνη ενώπιον του Ευρωπαϊκού Κοινοβουλίου.

Στις αρχές Μαΐου, η κυβέρνηση Μπάιντεν ανακοίνωσε την πρόοδο στην πρότασή της για την αντιμετώπιση της τεχνητής νοημοσύνης. Το πιο σημαντικό ήταν η δέσμευση μεγάλων εταιρειών τεχνητής νοημοσύνης – Alphabet, Microsoft και OpenAI, μεταξύ άλλων – να επιλέξουν τη “δημόσια αξιολόγηση”, η οποία θα θέσει την τεχνολογία τους μέσω ανεξάρτητων δοκιμών και θα αξιολογήσει τον πιθανό αντίκτυπο. Η αξιολόγηση δεν είναι ακριβώς «δημόσια» με τον τρόπο που ήταν η μαρτυρία του Άλτμαν ενώπιον του Κογκρέσου. θα δοθεί πρόσβαση σε εμπειρογνώμονες εκτός της εταιρείας για να αξιολογήσουν τις τεχνολογίες για λογαριασμό του κοινού. Εάν οι εταιρείες τηρήσουν αυτές τις δεσμεύσεις, οι εμπειρογνώμονες θα είναι σε θέση να εντοπίσουν προβλήματα πριν από την ανάπτυξη και ευρεία χρήση των προϊόντων, με την ελπίδα να προστατεύσουν το κοινό από επικίνδυνες συνέπειες. Αυτή είναι μια πρόταση πρώιμου σταδίου, επειδή δεν γνωρίζουμε ποιοι είναι αυτοί οι ειδικοί ή ποιες εξουσίες θα έχουν, και οι εταιρείες μπορεί να μην θέλουν να ακολουθήσουν τους κανόνες, ακόμη και όταν βοήθησαν στο σχεδιασμό τους. Ωστόσο, είναι ένα βήμα μπροστά στον καθορισμό των όρων για περισσότερο έλεγχο της ιδιωτικής τεχνολογίας.

Η ευρύτερη πρόταση της κυβέρνησης Μπάιντεν, το «Σχέδιο για τη Διακήρυξη Δικαιωμάτων της Τεχνητής Νοημοσύνης», προσδιορίζει διάφορους τομείς στους οποίους γνωρίζουμε ήδη ότι οι τεχνολογίες τεχνητής νοημοσύνης βλάπτουν: αλγόριθμοι αναγνώρισης προσώπου που προσδιορίζουν εσφαλμένα τους μαύρους. αλγόριθμοι μέσων κοινωνικής δικτύωσης που προωθούν βίαιο και σεξουαλικό περιεχόμενο και υιοθετούν (με γενικές γραμμές) ηθικές αρχές για την αντιμετώπιση αυτών των ζητημάτων, οι οποίες στη συνέχεια μπορούν να κωδικοποιηθούν σε νόμο και να επιβληθούν. Μεταξύ αυτών των αρχών είναι η μη διάκριση, η ασφάλεια, το δικαίωμα ενημέρωσης για τα δεδομένα που συλλέγονται από τα συστήματα και το δικαίωμα άρνησης αλγοριθμικής υπηρεσίας (και πρόσβασης σε μια ανθρώπινη εναλλακτική).

Οι ιστορίες τρόμου που ενστερνίζονται αυτές τις αρχές είναι ευρέως διαδεδομένες. Οι ερευνητές, συμπεριλαμβανομένου του Joy Buolamwini, έχουν τεκμηριώσει εκτενώς προβλήματα με τη φυλετική προκατάληψη σε αλγοριθμικά συστήματα. Το λογισμικό αναγνώρισης προσώπου και τα συστήματα αυτόνομης οδήγησης που έχουν εκπαιδευτεί σε μεγάλο βαθμό σε σύνολα δεδομένων λευκών θεμάτων δεν αναγνωρίζουν ούτε διαφοροποιούν τα μαύρα θέματα. Αυτό εγκυμονεί προφανείς κινδύνους, από την εσφαλμένη αναγνώριση κάποιου ως ύποπτου εγκλήματος βάσει ελαττωματικής αναγνώρισης προσώπου έως κάποιον που χτυπιέται από αυτοοδηγούμενο αυτοκίνητο που δεν μπορεί να δει μαύρους τη νύχτα. Οι άνθρωποι δεν πρέπει να υπόκεινται σε διακρίσεις (ή να χτυπηθούν από αυτοκίνητα) λόγω μεροληπτικών αλγορίθμων. Η πρόταση της κυβέρνησης Μπάιντεν υποστηρίζει ότι οι σχεδιαστές έχουν υποχρέωση να διεξάγουν δοκιμές πριν από την ανάπτυξη.

Αυτή η υποχρέωση είναι κρίσιμη. Πολλές τεχνολογίες έχουν ποσοστά σφαλμάτων και αποτυχίας. Για παράδειγμα, τα τεστ COVID έχουν ένα ψευδώς θετικό ποσοστό και μια ποικιλία περίπλοκων μεταβλητών, αλλά γι’ αυτό είναι σημαντικό οι τεχνολογίες να ελέγχονται για την αξιολόγηση και την αποκάλυψη αυτών των ποσοστών αποτυχίας. Υπάρχει διαφορά μεταξύ ενός ψευδώς θετικού τεστ αντιγόνου και του μηχανήματος που διαφημίζει ο Χολμς, το οποίο απλά δεν λειτούργησε. Η ευθύνη των σχεδιαστών πρέπει να ανταποκρίνεται σε αυτό που έκανε ο σχεδιαστής. Εάν οι σχεδιαστές τήρησαν τις βέλτιστες πρακτικές, τότε δεν θα έπρεπε να λογοδοτήσουν. αν ήταν βαριά αμέλεια, τότε θα έπρεπε να είναι. Αυτή είναι μια αρχή στη μηχανική και την ηθική του σχεδιασμού σε όλους τους τομείς, από ιατρικές δοκιμές έως αλγόριθμους έως πετρελαιοπηγές.

Υπάρχει πολύς δρόμος μεταξύ της πρότασης υποχρέωσης και της εφαρμογής ενός νομικού πλαισίου, αλλά σε έναν ιδανικό κόσμο, η πιθανότητα διάκρισης μπορεί να αντιμετωπιστεί κατά τη φάση της δοκιμής, με τις εταιρείες να υποβάλλουν τους αλγόριθμούς τους για ανεξάρτητο έλεγχο πριν βγουν στην αγορά. Καθώς εργασίες όπως του Buolamwini γίνονται μέρος του προτύπου για την ανάπτυξη και τη δοκιμή αυτών των τεχνολογιών, οι εταιρείες που δεν δοκιμάζουν για προκατάληψη στους αλγόριθμούς τους θα ήταν αμελείς. Αυτά τα πρότυπα απόδειξης θα πρέπει να έχουν νομικές επιπτώσεις και να βοηθούν να διαπιστωθεί πότε οι καταναλωτές που τραυματίζονται από ένα προϊόν μπορούν να ανακτήσουν ζημιές από την εταιρεία. Αυτό έλειπε στην υπόθεση απάτης του Theranos και εξακολουθεί να λείπει από τα πρότυπα για ιατρικές δοκιμές και συσκευές σε νεοφυείς επιχειρήσεις.

Οι επιχειρήσεις, από την πλευρά τους, θα πρέπει να εγκρίνουν σαφή και τεκμηριωμένα πρότυπα για την τεχνητή νοημοσύνη, όπως αυτά που περιγράφονται στην πρόταση της κυβέρνησης Μπάιντεν, γιατί κάτι τέτοιο χτίζει την εμπιστοσύνη του κοινού. Αυτή η γείωση δεν είναι απόλυτη. Εάν μάθουμε ότι η οδοντόκρεμα είναι μολυσμένη, τότε θα κοιτάξουμε στραβά την εταιρεία οδοντόκρεμας, αλλά γνωρίζοντας ότι υπάρχει κρίσιμος ρυθμιστικός έλεγχος βοηθά να διαπιστωθεί ότι τα προϊόντα που χρησιμοποιούμε τακτικά είναι ασφαλή. Οι περισσότεροι από εμάς αισθανόμαστε πιο ασφαλείς επειδή οι γιατροί και οι δικηγόροι μας έχουν έναν κώδικα δεοντολογίας και επειδή οι μηχανικοί που κατασκευάζουν γέφυρες και σήραγγες έχουν επαγγελματικά πρότυπα. Τα προϊόντα τεχνητής νοημοσύνης είναι ήδη ενσωματωμένα στη ζωή μας, από αλγόριθμους συστάσεων έως συστήματα προγραμματισμού έως συστήματα αναγνώρισης ομιλίας και εικόνας. Το να βεβαιωθείτε ότι αυτά τα πράγματα δεν έχουν σοβαρές και ακατάλληλες προκαταλήψεις είναι το ελάχιστο.

Οι αλγόριθμοι, όπως και οι ιατρικές εξετάσεις, μας δίνουν τις πληροφορίες που χρειαζόμαστε για να λάβουμε αποφάσεις. Χρειαζόμαστε ρυθμιστική εποπτεία των αλγορίθμων για τον ίδιο λόγο που τη χρειαζόμασταν για τα κουτιά Holmes: εάν οι πληροφορίες που λαμβάνουμε παράγονται από μηχανές που κάνουν συστηματικά σφάλματα (ή χειρότερα, δεν λειτουργούν καθόλου), τότε μπορούν και θα το κάνουν. θέτουν σε κίνδυνο τα άτομα που τα χρησιμοποιούν. Εάν γνωρίζουμε ποια είναι τα σφάλματα, τότε μπορούμε να εργαστούμε για την πρόληψη ή τον μετριασμό τους. πονάει

Το Future Tense είναι μια συνεργασία των Slate, New America και Arizona State University που εξετάζει τις αναδυόμενες τεχνολογίες, τη δημόσια πολιτική και την κοινωνία.

Leave a Reply

Your email address will not be published. Required fields are marked *