Οι προτάσεις δημιουργούν ένα Γενικό Κανονισμό Ασφαλείας Δεδομένων για συστήματα ελεγχόμενα από την τεχνητή νοημοσύνη

Καθώς οι κυβερνήσεις σε ολόκληρο τον κόσμο εξετάζουν τρόπους ρύθμισης των χρήσεων της τεχνητής νοημοσύνης, η Ευρωπαϊκή Ένωση σχεδιάζει ένα νομοθετικό πλαίσιο, το πρώτο του είδους του, το οποίο εφόσον εγκριθεί θα θέσει αυστηρά όρια στη χρησιμοποίηση της συγκεκριμένης τεχνολογίας. Την Τετάρτη, η Ευρωπαϊκή Επιτροπή, το εκτελεστικό όργανο της Ευρωπαϊκής Ένωσης, παρουσίασε μια ρυθμιστική προσέγγιση η οποία προβλέπει ένα σύστημα τεσσάρων βαθμίδων, το οποίο κατατάσσει το λογισμικό τεχνητής νοημοσύνης σε διακριτές κατηγορίες επικινδυνότητας και ορίζει μια ανάλογη ρυθμιστική κλίμακα για κάθε μία από αυτές.

Στην υψηλότερη βαθμίδα κατατάσσονται συστήματα τα οποία συνιστούν "απαράδεκτο" κίνδυνο για τα δικαιώματα και την ασφάλεια των ανθρώπων. Η Ευρωπαϊκή Ένωση, εφόσον γίνει δεκτή η νομοθετική πρόταση της Ευρωπαϊκής Επιτροπής, θα προχωρούσε στην άμεση απαγόρευση τέτοιου είδους αλγορίθμων. Παράδειγμα λογισμικού το οποίο θα ενέπιπτε σε αυτή την κατηγορία είναι οιοδήποτε σύστημα τεχνητής νοημοσύνης θα επέτρεπε σε κυβερνήσεις και εταιρίες να εφαρμόσουν συστήματα κοινωνικής βαθμολόγησης. 

Ακολουθούν τα λεγόμενα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου. Η συγκεκριμένη βαθμίδα είναι η εκτενέστερη, τόσο ως προς την πολυμορφία του λογισμικού που κατατάσσεται σε αυτή, όσο και ως προς τα προτεινόμενα όρια. Η Ευρωπαϊκή Επιτροπή αναφέρει πως τα συστήματα αυτά θα υπόκεινται σε αυστηρό ρυθμιστικό πλαίσιο το οποίο θα ελέγχει τα πάντα, από το σύνολο των δεδομένων που χρησιμοποιούνται για την εκπαίδευσή τους μέχρι το τι συνιστά κατάλληλο επίπεδο ανθρώπινης εποπτείας και το πώς θα προωθούνται οι πληροφορίες στον τελικό χρήστη, μεταξύ άλλων. Στην κατηγορία αυτή περιλαμβάνονται συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται από τις αστυνομικές αρχές καθώς και όλες οι μορφές απομακρυσμένης βιομετρικής ταυτοποίησης. Δεν θα επιτρέπεται στην αστυνομία να χρησιμοποιεί τέτοια συστήματα σε δημόσιους χώρους, αν και η Ευρωπαϊκή Ένωση θα ήταν διατεθειμένη να κάνει ορισμένες εξαιρέσεις εφόσον αφορούν ζητήματα εθνικής ασφάλειας.

Στη συνέχεια υπάρχει η κατηγορία για συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου, λ.χ. chatbots. Η νομοθεσία θα προβλέπει υποχρέωση των προγραμμάτων αυτών να ενημερώνουν το χρήστη ότι συνομιλεί με σύστημα τεχνητής νοημοσύνης, ώστε να μπορεί ο άνθρωπος να αποφασίσει, έχοντας υπόψη αυτή την παράμετρο, αν επιθυμεί να συνεχίσει να τα χρησιμοποιεί ή όχι. Τέλος, υπάρχει μια κατηγορία για προγράμματα τα οποία συνιστούν ελάχιστο κίνδυνο για τους ανθρώπους. Σύμφωνα με την Ευρωπαϊκή Επιτροπή, η "συντριπτική" πλειοψηφία των συστημάτων τεχνητής νοημοσύνης εμπίπτει στη συγκεκριμένη κατηγορία. Προγράμματα τα οποία κατατάσσονται σε αυτή τη βαθμίδα περιλαμβάνουν λογισμικό όπως τα φίλτρα ελέγχου ανεπιθύμητης αλληλογραφίας. Στην κατηγορία αυτή, η Ευρωπαϊκή Επιτροπή δεν σχεδιάζει να επιβάλει ρυθμιστικό πλαίσιο.

"Η τεχνητή νοημοσύνη αποτελεί μέσο, όχι σκοπό", αναφέρει χαρακτηριστικά σε δήλωσή του ο Τιερί Μπρετόν, Επίτροπος Εσωτερικής Αγοράς. "Οι προτάσεις που κατατέθηκαν σήμερα στόχο έχουν να ενισχύσουν τη θέση της Ευρώπης ως παγκοσμίου κόμβου πρωτοπορίας στον τομέα της τεχνητής νοημοσύνης, από τα εργαστήρια μέχρι τις αγορές, να διασφαλίσουν πως η τεχνητή νοημοσύνη στην Ευρώπη σέβεται τις αξίες και τους κανόνες μας και να αξιοποιήσουν τις προοπτικές της τεχνητής νοημοσύνης για βιομηχανική χρήση".

Η νομοθεσία, η οποία εκτιμάται πως θα απαιτηθούν χρόνια προκειμένου να συζητηθεί διεξοδικά και να εφαρμοστεί στην Ευρώπη, θα μπορούσε να φέρει τις εταιρίες αντιμέτωπες με πρόστιμα ίσα με έως και το 6% των παγκοσμίων πωλήσεών τους, σε περίπτωση παραβίασης του πλαισίου. Με το Γενικό Κανονισμό Προστασίας Δεδομένων η Ευρώπη ήδη έχει θεσπίσει ορισμένες από τις αυστηρότερες πολιτικές προστασίας της ιδιωτικότητας παγκοσμίως, ενώ ανάλογα μέτρα εξετάζει για υποθέσεις οι οποίες αφορούν το συντονισμό περιεχομένου στις πλατφόρμες κοινωνικής δικτύωσης καθώς και την αντιμονοπωλιακή νομοθεσία.