Οι ρυθμιστικές αρχές ξεσκονίζουν τα βιβλία κανόνων για να αντιμετωπίσουν τη δημιουργία τεχνητής νοημοσύνης όπως το ChatGPT

By | May 22, 2023

  • Οι ρυθμιστικοί φορείς αγωνίζονται για να συμβαδίσουν με τη μαζική ανάπτυξη της τεχνητής νοημοσύνης
  • Εν αναμονή νέων νόμων, οι ρυθμιστικές αρχές προσαρμόζουν τους υπάρχοντες
  • Τα εργαλεία δημιουργίας αντιμετωπίζουν προκλήσεις σχετικά με το απόρρητο, τα πνευματικά δικαιώματα και άλλες προκλήσεις

ΛΟΝΔΙΝΟ/ΣΤΟΚΧΟΛΜΗ, 22 Μαΐου (Reuters) – Καθώς ο αγώνας για την ανάπτυξη ισχυρότερων υπηρεσιών τεχνητής νοημοσύνης όπως το ChatGPT επιταχύνεται, ορισμένες ρυθμιστικές αρχές βασίζονται σε παλιούς νόμους για να χαλιναγωγήσουν μια τεχνολογία που θα μπορούσε να διαταράξει τον τρόπο λειτουργίας των κοινωνιών και των εταιρειών.

Η Ευρωπαϊκή Ένωση βρίσκεται στην πρώτη γραμμή της σύνταξης νέων κανόνων τεχνητής νοημοσύνης που θα μπορούσαν να αποτελέσουν το παγκόσμιο σημείο αναφοράς για την αντιμετώπιση των ανησυχιών σχετικά με το απόρρητο και την ασφάλεια που έχουν προκύψει με τις ραγδαίες προόδους στη γενετική τεχνολογία AI πίσω από το ChatGPT του OpenAI.

Όμως θα περάσουν αρκετά χρόνια μέχρι να εφαρμοστεί η νομοθεσία.

«Ελλείψει κανονισμών, το μόνο πράγμα που μπορούν να κάνουν οι κυβερνήσεις είναι να εφαρμόσουν τους υπάρχοντες κανόνες», δήλωσε ο Massimiliano Cimnaghi, ειδικός σε θέματα ευρωπαϊκής διακυβέρνησης δεδομένων στην συμβουλευτική εταιρεία BIP.

«Αν πρόκειται για την προστασία των προσωπικών δεδομένων, ισχύουν οι νόμοι για την προστασία δεδομένων, εάν πρόκειται για απειλή για την ασφάλεια των ανθρώπων, υπάρχουν κανονισμοί που δεν έχουν καθοριστεί ειδικά για την τεχνητή νοημοσύνη, αλλά εξακολουθούν να ισχύουν».

Τον Απρίλιο, οι εθνικοί επιτηρητές απορρήτου της Ευρώπης δημιούργησαν μια ομάδα εργασίας για την αντιμετώπιση προβλημάτων με το ChatGPT, αφού η ιταλική ρυθμιστική αρχή Garante απέσυρε την υπηρεσία, κατηγορώντας την OpenAI για παραβίαση του GDPR της ΕΕ, ενός γενικού καθεστώτος απορρήτου που θεσπίστηκε το 2018.

Το ChatGPT αποκαταστάθηκε αφού η αμερικανική εταιρεία συμφώνησε να εγκαταστήσει λειτουργίες επαλήθευσης ηλικίας και να επιτρέψει στους ευρωπαίους χρήστες να αποκλείουν τη χρήση των πληροφοριών τους για την εκπαίδευση του μοντέλου AI.

Ο οργανισμός θα αρχίσει να εξετάζει ευρύτερα άλλα εργαλεία παραγωγής τεχνητής νοημοσύνης, δήλωσε στο Reuters πηγή προσκείμενη στην Garante. Οι γαλλικές και ισπανικές αρχές προστασίας δεδομένων ξεκίνησαν επίσης έρευνες για τη συμμόρφωση του OpenAI με τους νόμους περί απορρήτου τον Απρίλιο.

ΦΕΡΤΕ ΤΟΥΣ ΕΙΔΙΚΟΥΣ

Τα μοντέλα γενετικής τεχνητής νοημοσύνης έχουν γίνει ευρέως γνωστά για λάθη ή «παραισθήσεις», που εκτοξεύουν παραπληροφόρηση με εκπληκτική βεβαιότητα.

Τέτοια λάθη θα μπορούσαν να έχουν σοβαρές συνέπειες. Εάν μια τράπεζα ή μια κυβερνητική υπηρεσία χρησιμοποιούσε τεχνητή νοημοσύνη για να επιταχύνει τη λήψη αποφάσεων, οι άνθρωποι θα μπορούσαν να απορριφθούν άδικα για δάνεια ή πληρωμές παροχών. Οι μεγάλες εταιρείες τεχνολογίας, συμπεριλαμβανομένης της Google της Alphabet (GOOGL.O) και της Microsoft Corp (MSFT.O), είχαν σταματήσει να χρησιμοποιούν προϊόντα τεχνητής νοημοσύνης που θεωρούνταν ηθικά επικίνδυνα, όπως χρηματοοικονομικά προϊόντα.

Οι ρυθμιστικές αρχές στοχεύουν στην επιβολή υφιστάμενων κανόνων που καλύπτουν τα πάντα, από τα πνευματικά δικαιώματα και το απόρρητο δεδομένων έως δύο βασικά ζητήματα: τα δεδομένα που περιλαμβάνονται στα μοντέλα και το περιεχόμενο που παράγουν, σύμφωνα με έξι ρυθμιστικές αρχές και ειδικούς του κλάδου.Ηνωμένες Πολιτείες και Ευρώπη.

Οι υπηρεσίες στις δύο περιοχές ενθαρρύνονται να «ερμηνεύσουν και να επανερμηνεύσουν τις εντολές τους», δήλωσε ο Suresh Venkatasubramanian, πρώην σύμβουλος τεχνολογίας του Λευκού Οίκου. Ανέφερε την έρευνα της Ομοσπονδιακής Επιτροπής Εμπορίου των ΗΠΑ (FTC) για αλγόριθμους για πρακτικές που εισάγουν διακρίσεις στο πλαίσιο των υφιστάμενων ρυθμιστικών εξουσιών.

Στην ΕΕ, οι προτάσεις για τον νόμο περί τεχνητής νοημοσύνης του μπλοκ θα αναγκάσουν εταιρείες όπως το OpenAI να αποκαλύπτουν οποιοδήποτε υλικό που προστατεύεται από πνευματικά δικαιώματα, όπως βιβλία ή φωτογραφίες, που χρησιμοποιούνται για την εκπαίδευση των μοντέλων τους, αφήνοντάς τα ευάλωτα σε νομικές προκλήσεις.

Ωστόσο, η απόδειξη της παραβίασης πνευματικών δικαιωμάτων δεν θα είναι εύκολη, σύμφωνα με τον Σεργκέι Λαγκοντίνσκι, έναν από τους πολλούς πολιτικούς που συμμετείχαν στη σύνταξη των προτάσεων της ΕΕ.

«Είναι σαν να διαβάζεις εκατοντάδες μυθιστορήματα πριν γράψεις τα δικά σου», είπε. «Αν πραγματικά αντιγράψετε κάτι και το δημοσιεύσετε, αυτό είναι ένα πράγμα. Αλλά από τη στιγμή που δεν λογοκλοπείτε απευθείας το υλικό κάποιου άλλου, δεν έχει σημασία σε τι έχετε εκπαιδευτεί.

«ΣΚΕΦΤΕΙΤΕ ΔΗΜΙΟΥΡΓΙΚΑ»

Η γαλλική ρυθμιστική αρχή δεδομένων CNIL έχει αρχίσει να «σκέφτεται δημιουργικά» για το πώς θα μπορούσαν να εφαρμοστούν οι υφιστάμενοι νόμοι στην τεχνητή νοημοσύνη, σύμφωνα με τον Bertrand Pailhes, επικεφαλής της τεχνολογίας.

Για παράδειγμα, στη Γαλλία, οι καταγγελίες για διακρίσεις αντιμετωπίζονται συνήθως από τον Defenceur des Droits (Διαμεσολαβητή). Ωστόσο, η έλλειψη εμπειρίας στην προκατάληψη της τεχνητής νοημοσύνης ώθησε το CNIL να αναλάβει ηγετικό ρόλο στο θέμα, είπε.

«Εξετάζουμε όλο το φάσμα των επιπτώσεων, αν και το επίκεντρό μας παραμένει η προστασία των δεδομένων και το απόρρητο», είπε στο Reuters.

Ο οργανισμός εξετάζει το ενδεχόμενο να χρησιμοποιήσει μια διάταξη GDPR που προστατεύει τους ανθρώπους από την αυτοματοποιημένη λήψη αποφάσεων.

«Σε αυτό το στάδιο, δεν μπορώ να πω αν είναι αρκετό, νομικά», είπε ο Pailhes. «Θα χρειαστεί λίγος χρόνος για να δημιουργηθεί μια γνώμη και υπάρχει ο κίνδυνος διαφορετικές ρυθμιστικές αρχές να έχουν διαφορετικές απόψεις».

Στη Βρετανία, η Αρχή Χρηματοοικονομικής Συμπεριφοράς είναι μία από τις πολλές κρατικές ρυθμιστικές αρχές που έχουν επιφορτιστεί με τη σύνταξη νέων κατευθυντήριων γραμμών που καλύπτουν την τεχνητή νοημοσύνη. Διαβουλεύεται με το Ινστιτούτο Άλαν Τούρινγκ στο Λονδίνο, μαζί με άλλα νομικά και ακαδημαϊκά ιδρύματα, για να βελτιώσει την κατανόηση της τεχνολογίας, δήλωσε εκπρόσωπος στο Reuters.

Ενώ οι ρυθμιστικές αρχές συμβαδίζουν με τις τεχνολογικές εξελίξεις, ορισμένοι ειδικοί του κλάδου έχουν ζητήσει μεγαλύτερη δέσμευση με τους εταιρικούς ηγέτες.

Ο Χάρι Μπόροβικ, γενικός σύμβουλος της Luminance, μιας startup που χρησιμοποιεί τεχνητή νοημοσύνη για την επεξεργασία νομικών εγγράφων, είπε στο Reuters ότι ο διάλογος μεταξύ ρυθμιστικών αρχών και εταιρειών ήταν «περιορισμένος» μέχρι στιγμής.

«Αυτό δεν προμηνύεται καλό όσον αφορά το μέλλον», είπε. «Οι ρυθμιστικές αρχές φαίνονται αργοί ή απρόθυμοι να εφαρμόσουν τις προσεγγίσεις που θα επιτύχουν τη σωστή ισορροπία μεταξύ της προστασίας των καταναλωτών και της επιχειρηματικής ανάπτυξης».

(Αυτή η ιστορία έχει αρχειοθετηθεί εκ νέου για να διορθωθεί μια ορθογραφία σε Massimiliano, όχι Massimilano, στην παράγραφο 4)

Αναφορά από τον Martin Coulter στο Λονδίνο, τη Supantha Mukherjee στη Στοκχόλμη, τον Kantaro Komiya στο Τόκιο και την Elvira Pollina στο Μιλάνο. επιμελήθηκε οι Kenneth Li, Matt Scuffham και Emelia Sithole-Matarise

Τα πρότυπά μας: Αρχές εμπιστοσύνης της Thomson Reuters.

Leave a Reply

Your email address will not be published. Required fields are marked *