Προς το περιεχόμενο

Η τεχνητή νοημοσύνη “σύμβουλος” της αστυνομίας του Durham για την απόφαση προφυλάκισης κατηγορουμένων


deligkos

Προτεινόμενες αναρτήσεις

Τη συμβουλή ενός συστήματος τεχνητής νοημοσύνης θα μπορούν να παίρνουν σε λίγους μήνες οι αστυνομικοί της κομητείας του Durham στη Βρετανία, όταν πρόκειται να κρίνουν κατά πόσο ένας κατηγορούμενος θα πρέπει να προφυλακισθεί ή όχι.

Το σύστημα κατατάσσει τους κατηγορούμενους σε τρεις ομάδες - “μικρού”, “μέτριου” και “υψηλού” ρίσκου τέλεσης των ίδιων αδικημάτων, στην περίπτωση που κριθούν μη προφυλακιστέοι.

 

Για την εκπαίδευσή του, χρησιμοποιήθηκαν τα αστυνομικά αρχεία της περιόδου 2008-2012, ενώ τέθηκε σε δοκιμαστική λειτουργία το 2013. Οι εκτιμήσεις του συγκρίθηκαν μέσα στα δύο επόμενα χρόνια με την πραγματική εξέλιξη των σχετικών υποθέσεων, δηλαδή το κατά πόσο οι κατηγορούμενοι τέλεσαν ή όχι τα ίδια αδικήματα.

 

Η ανάλυση έδειξε πως οι κατατάξεις κατηγορουμένων στην κατηγορία “χαμηλού ρίσκου” είχαν ποσοστό ακρίβειας 98%, ενώ στην “υψηλού ρίσκου” 88%. Κατά τη διάρκεια των δοκιμών, οι αστυνομικές αρχές δεν λάμβαναν υπόψη τους τις αξιολογήσεις.

 

Η εφαρμογή του συστήματος θα είναι σε πρώτη φάση πιλοτική, καθώς οι αστυνομικοί θα το συμβουλεύονται σε περιπτώσεις που θα επιλέγονται τυχαία. Έτσι, θα μπορούν να συγκριθούν τα αποτελέσματα της χρήσης του, με την έκβαση των υποθέσεων όπου δεν αξιοποιήθηκε ως σύμβουλος.

 

Πέρυσι, πάντως, η αμερικανική ειδησεογραφική ιστοσελίδα ProPublica δημοσίευσε μία έρευνα για έναν ανάλογο αλγόριθμο που προβλέπει την πιθανότητα διάπραξης εγκλημάτων από κάποιον συλληφθέντα. Αν και η εταιρεία αμφισβήτησε τα συμπεράσματα της έρευνας, η μελέτη αυτή έδειξε πως το λογισμικό εμφάνιζε μεροληψία ανάλογα με το χρώμα του υπόπτου – κάνοντας περισσότερο αρνητικές προβλέψεις στην περίπτωση των έγχρωμων συλληφθέντων.

 

Σύμφωνα με τον Cary Coglianese, καθηγητή πολιτικής επιστήμης στο πανεπιστήμιο της Pennsylvania που έχει μελετήσει αλγορίθμους λήψης αποφάσεων, σε κάποιον βαθμό αυτά α συστήματα φέρνουν στο προσκήνιο κρυφές και άρρητες προκαταλήψεις που έχει και ο άνθρωπος. Μάλιστα, όπως συμπληρώνει, πρόκειται για πολύ περίπλοκα μοντέλα, ώστε να είναι δύσκολο να εκτιμηθεί τυχόν μεροληψία τους.

 

Link.png Site: BBC

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δυστυχώς η μόνη μορφή πραγματικής δικαιοσύνης μόνο με ΑΙ μπορεί να υπάρξει, καθώς δεν θα εξαρτάτε από πόσους δικηγόρους θα έχεις (άρα πόσα λεφτά έχεις να σπρώξεις) διασυνδέσεις, θέση κλπ.

  • Like 5
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης

Ένα τέτοιο σύστημα θα μας έσωζε από Παπανδρέους Τσίπρες και αντίστοιχα Κούληδες στο μέλλον. Το βρίσκω εξαιρετικά χρήσιμο για τη συγκεκριμένη δουλειά. Που αγοράζω ένα;

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δυστυχώς η μόνη μορφή πραγματικής δικαιοσύνης μόνο με ΑΙ μπορεί να υπάρξει, καθώς δεν θα εξαρτάτε από πόσους δικηγόρους θα έχεις (άρα πόσα λεφτά έχεις να σπρώξεις) διασυνδέσεις, θέση κλπ.

 

Το θέμα είναι το σύστημα να έχει σχεδιασθεί να είναι αμερόληπτο. AI δεν σημαίνει zero bias...

  • Like 5
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μέχρι και το ΑΙ βγαλανε ρατσιστή τι είναι αυτοι ρε μαζεψτε τους

 

Γιατί νομίζεις ότι δεν μπορεί κάποιος(-οι) να βάλουν το χέρι τους και να αλλοιώνουν τα πραγματικά γεγονότα;

 

Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Super Moderators

Δυστυχώς η μόνη μορφή πραγματικής δικαιοσύνης μόνο με ΑΙ μπορεί να υπάρξει, καθώς δεν θα εξαρτάτε από πόσους δικηγόρους θα έχεις (άρα πόσα λεφτά έχεις να σπρώξεις) διασυνδέσεις, θέση κλπ.

 

Αρκεί να μην ισχύουν ακόμα retard νόμοι και το Σύνταγμα να μην έχει μείνει outdated...

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Θα είχε ενδιαφέρον να δούμε πιο αναλυτικά την έρευνα, πόσες ήταν οι υποθέσεις, ποιά χαρακτηριστικά χρησιμοποιήθηκαν κλπ. Στο μόνο που ενίσταμαι (αν κατάλαβα καλά από το άρθρο), είναι που έψαχναν αν ο κατηγορούμενος έκανε το ίδιο αδίκημα. Αν ένας τύπος είναι παραβατικός γενικά, δε νομίζω να έχει θέμα με τα αδικήματα. Διαπράττει μπόλικα και πολλών ειδών, που συνήθως, συνδέονται μεταξύ τους.Πχ ένας έμπορος ναρκωτικών, είναι δύσκολο να μην εμπλακεί σε απόπειρα δολοφονίας κλπ. Οπότε κατ' εμέ, θα ήταν καλύτερα να απαντάται το ερώτημα "διέπραξε πάλι αδίκημα;".

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Πω πω και πως δεν μου αρέσουν καθόλου κάτι τέτοια με ΑΙ κτλ. Πραγματικά νομίζω ότι δεν χρειάζεται. Άσε που απο την στιγμή που κάποιος το προγγραματίζει όπως θέλει πάει άκυρο το δίκαιο κτλ.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Πω πω και πως δεν μου αρέσουν καθόλου κάτι τέτοια με ΑΙ κτλ. Πραγματικά νομίζω ότι δεν χρειάζεται. Άσε που απο την στιγμή που κάποιος το προγγραματίζει όπως θέλει πάει άκυρο το δίκαιο κτλ.

Με ανοιχτό κώδικα μπορεί άνετα να επικυρωθεί η ακρίβεια ενός τέτοιου συστήματος. Ακριβώς όπως τα συστήματα κρυπτογράφησης.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Το μόνο που ουσιαστικά κάνει είναι να "επιβάλει" την κοινή πρακτική.

Δηλαδή.. Εξετάζει Χιλιάδες περιπτώσεις... και δημιουργεί ένα μοτίβο... και απαντά ναι/οχι. Δηλαδή δημιουργεί μια απεικόνιση που "πλησιάζει" όσο πιο κοντά την πραγματικότητα με βάση το αποτέλεσμα.

 

Τι κερδίζει κάποιος από αυτό? Οτι θα εφαρμόζεται ΓΙΑ ΟΛΟΥΣ η "κοινή πρακτική" και όχι κατ εξαίρεση.

Γενικά μια AI based δικαιοσύνη , ειδικά σε ζητήματα που δεν χρειάζεται η ερμηνεία δεδομένων θα ήταν τεράστια λύση (τόσο στην ταχύτητα απονομής όσο και στην ισονομία)

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...