Τη συμβουλή ενός συστήματος τεχνητής νοημοσύνης θα μπορούν να παίρνουν σε λίγους μήνες οι αστυνομικοί της κομητείας του Durham στη Βρετανία, όταν πρόκειται να κρίνουν κατά πόσο ένας κατηγορούμενος θα πρέπει να προφυλακισθεί ή όχι.

Το σύστημα κατατάσσει τους κατηγορούμενους σε τρεις ομάδες - “μικρού”, “μέτριου” και “υψηλού” ρίσκου τέλεσης των ίδιων αδικημάτων, στην περίπτωση που κριθούν μη προφυλακιστέοι.

 

Για την εκπαίδευσή του, χρησιμοποιήθηκαν τα αστυνομικά αρχεία της περιόδου 2008-2012, ενώ τέθηκε σε δοκιμαστική λειτουργία το 2013. Οι εκτιμήσεις του συγκρίθηκαν μέσα στα δύο επόμενα χρόνια με την πραγματική εξέλιξη των σχετικών υποθέσεων, δηλαδή το κατά πόσο οι κατηγορούμενοι τέλεσαν ή όχι τα ίδια αδικήματα.

 

Η ανάλυση έδειξε πως οι κατατάξεις κατηγορουμένων στην κατηγορία “χαμηλού ρίσκου” είχαν ποσοστό ακρίβειας 98%, ενώ στην “υψηλού ρίσκου” 88%. Κατά τη διάρκεια των δοκιμών, οι αστυνομικές αρχές δεν λάμβαναν υπόψη τους τις αξιολογήσεις.

 

Η εφαρμογή του συστήματος θα είναι σε πρώτη φάση πιλοτική, καθώς οι αστυνομικοί θα το συμβουλεύονται σε περιπτώσεις που θα επιλέγονται τυχαία. Έτσι, θα μπορούν να συγκριθούν τα αποτελέσματα της χρήσης του, με την έκβαση των υποθέσεων όπου δεν αξιοποιήθηκε ως σύμβουλος.

 

Πέρυσι, πάντως, η αμερικανική ειδησεογραφική ιστοσελίδα ProPublica δημοσίευσε μία έρευνα για έναν ανάλογο αλγόριθμο που προβλέπει την πιθανότητα διάπραξης εγκλημάτων από κάποιον συλληφθέντα. Αν και η εταιρεία αμφισβήτησε τα συμπεράσματα της έρευνας, η μελέτη αυτή έδειξε πως το λογισμικό εμφάνιζε μεροληψία ανάλογα με το χρώμα του υπόπτου – κάνοντας περισσότερο αρνητικές προβλέψεις στην περίπτωση των έγχρωμων συλληφθέντων.

 

Σύμφωνα με τον Cary Coglianese, καθηγητή πολιτικής επιστήμης στο πανεπιστήμιο της Pennsylvania που έχει μελετήσει αλγορίθμους λήψης αποφάσεων, σε κάποιον βαθμό αυτά α συστήματα φέρνουν στο προσκήνιο κρυφές και άρρητες προκαταλήψεις που έχει και ο άνθρωπος. Μάλιστα, όπως συμπληρώνει, πρόκειται για πολύ περίπλοκα μοντέλα, ώστε να είναι δύσκολο να εκτιμηθεί τυχόν μεροληψία τους.

 

Link.png Site: BBC