Προς το περιεχόμενο

Δεν ευθύνονται οι αισθητήρες του αυτόνομου οχήματος της Uber για το δυστύχημα, σύμφωνα με την κατασκευάστρια εταιρεία


deligkos

Προτεινόμενες αναρτήσεις

  • Απαντ. 84
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

13 ώρες πριν, gassim είπε

Όταν τα αυτοοδηγούμενα θα κινούνται με ιλιγγιώδεις ταχύτητες και μηδενικά ατυχήματα θα σκεφτόμαστε την εποχή των χιλιάδων θανάτων από τροχαία όπως θυμόμαστε σήμερα τα κάρα.

Ιλιγγιώδεις ταχύτητες; Χμμ...

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

14 ώρες πριν, Omnigeek είπε

Δεν είναι αρκετά στοιχεία αυτά για να συμπεράνει κάποιος ότι η Uber έτρεχε τεχνολογία της waymo στο αυτοκίνητο;

 

Αυτό που φέρεται να "έκλεψε" η UBER απο την Google, είναι τεχνολογία που σχετίζεται με τους αισθητήρες LIDAR. Κρίνοντας απο τα υπόλοιπα στοιχεία, δηλαδή αρχικά disengagements κάθε ένα μίλι το οποίο στη συνέχεια έγινε κάθε 13 μίλια, φαίνεται οτι σε όλα τα υπόλοιπα ξεκίνησαν απο το μηδέν.

Το θέμα των αισθητήρων στα αυτόνομα αυτοκίνητα είναι το πιό απλό και πρακτικά λυμένο, απο την άποψη οτι η υπάρχουσα τεχνολογία καλύπτει πλήρως τις ανάγκες sensing των αυτοκινήτων. Αυτή τη στιγμή ο βασικός στόχος είναι οι αισθητήρες να γίνουν πιό φτηνοί και συμπαγείς, ωστε να μπορούν να μπούν και στα φτηνότερα αυτοκίνητα, και να μήν προεξέχουν αντιαισθητικά καρούμπαλα. Δευτερευόντως είναι να βελτιωθεί η ανάλυση και ακρίβεια, καθώς οι υπάρχοντες κάνουν τη δουλειά τους.

Το πιό δύσκολο στην αυτόνομη οδήγηση και αυτό που θέλει την πιό πολύ δουλειά είναι το planning, δηλαδή η αναγνώριση του δρόμου και των αντικειμένων, η επιλογή πορείας κτλ.

Οπότε το να λέμε οτι η UBER είχε τεχνολογία της Waymo είναι σαν να λέμε οτι αν πάρω μία βιντεοκάμερα RED, θα μπορώ να γυρίσω ταινίες επιπέδου Oscar.

 

15 ώρες πριν, Omnigeek είπε

Γράφεις λες και ξέρεις με βεβαιότητα ότι το αυτοκίνητο της Uber δεν είχε μια προσωρινή δυσλειτουργία και προκάλεσε το δυστύχημα αλλά ήταν γενικά ανίκανο να λειτουργήσει σωστά. Θέλεις να μου εξηγήσεις που βασίζεται αυτή;

Δέν είναι βεβαιότητα, απλά educated guess.

Που το βασίζω:

1) Όλοι οι αισθητήρες που χρησιμοποιούνται σε αυτές τις εφαρμογές είναι υψηλών προδιαγραφών, και μεταξύ άλλων δίνουν ειδοποίηση όταν τα δεδομένα που βγάζουν είναι out of bounds. Η κεντρική μονάδα σε περίπτωση που κάποιος αισθητήρας βγεί εκτός πρέπει να βγάλει ειδοποίηση και να απενεργοποιήσει το σύστημα αυτοοδήγησης αν το πρόβλημα είναι σημαντικό. Μέχρι τώρα δέν υπάρχει ένδειξη οτι έγινε κάτι τέτοιο.

2) Πρώτη προτεραιότητα στην ανάπτυξη της αυτοοδήγησης είναι να βγάζει μηδενικά false positives, πχ να φρενάρει το αυτοκίνητο στα καλά καθούμενα, νομίζοντας οτι είδε κάτι. Όσο περίεργο και να φαίνεται, είναι δευτερεύον να βγάζει μηδενικά false negatives, δηλαδή να μήν φρενάρει σε ένα εμπόδιο ενώ θα έπρεπε να φρενάρει. Για να αναλαμβάνει τα false negatives υπάρχει ο οδηγός ασφαλείας.

Αυτό γίνεται έχοντας redundant αισθητήρες. Αν ένας αισθητήρας δώσει μια ένδειξη, αλλά οι υπόλοιποι δέν δώσουν, τότε θεωρείται spurious reading απο την κεντρική μονάδα και αγνοείται. Αλλιώς αν ήταν να αντιδρά στις ενδείξεις ακόμα και απο ένα μόνο αισθητήρα, τότε θα έδινε συνέχεια false positives.

Εδώ όμως το περίεργο είναι οτι τρείς διαφορετικοί αισθητήρες πρέπει κανονικά να δώσανε ένδειξη ταυτόχρονα, οπότε η κεντρική μονάδα δέν έπρεπε να το αγνοήσει σαν spurious, όμως αυτό ακριβώς έκανε. Οπότε όλα δείχνουν οτι υπάρχει σοβαρό πρόβλημα σχεδιασμού του software.

 

15 ώρες πριν, Omnigeek είπε

Επίσης η waymo που είναι σωστή εταιρία όχι σαν τις άλλες 3 κατηγορίας εταιρίες δολοφόνους που δοκιμάζει τα οχήματά της ;

Δέν είμαι κατά των δοκιμών στο δρόμο, απλά να υπάρχει regulation. Μέχρι τώρα οι έλεγχοι αυτών των συστημάτων απο τις αρχές ήταν υποτυπώδεις εώς εντελώς ανύπαρκτες.

Δέν ξέρω για ποιό λόγο η Waymo δέν είχε σοβαρό ατύχημα μέχρι τώρα, μπορεί απλά να ήταν και θέμα τύχης, γιατι έχουν βγάλει στη δημοσιότητα βίντεο, οπου οι οδηγοί ασφαλείας χαζεύανε εντελώς, όπως και στην περίπτωση της UBER, και μία περίπτωση που τον είχε πάρει ο ύπνος. Αλλά σε κάθε περίπτωση, τόσα πολλά χιλιόμετρα με τόσα λίγα ατυχήματα δέν νομίζω οτι είναι τυχαίο, έχει πέσει πολύ δουλειά με υπευθυνότητα.

  • Thanks 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
3 ώρες πριν, Fubar.gr είπε

Δέν ξέρω για ποιό λόγο η Waymo δέν είχε σοβαρό ατύχημα μέχρι τώρα, μπορεί απλά να ήταν και θέμα τύχης, γιατι έχουν βγάλει στη δημοσιότητα βίντεο, οπου οι οδηγοί ασφαλείας χαζεύανε εντελώς, όπως και στην περίπτωση της UBER, και μία περίπτωση που τον είχε πάρει ο ύπνος. Αλλά σε κάθε περίπτωση, τόσα πολλά χιλιόμετρα με τόσα λίγα ατυχήματα δέν νομίζω οτι είναι τυχαίο, έχει πέσει πολύ δουλειά με υπευθυνότητα.

Η Waymo είναι καθαρά Tech company. Έχει την πλάτη και το ιστορικό να δουλέψει αυτό το κομμάτι. Το τελικό προϊόν τους είναι το αυτόνομο σύστημα (όπως και της Mobileye), οπότε αναγκαστηκά πρέπει να δουλέψουν με υπευθυνότητα και μεθοδικότητα για να είναι πλήρως έτοιμο και ασφαλές ώστε να μπορεί ο τελικός καταναλωτής (αυτοκινητοβιομηχανίες, άνθρωποι) να το εμπιστευτούν και να το υιοθετήσουν. 

Αντιθέτως η Uber, και αρκετές άλλες εταιρείες, δηλώνονται σαν Tech, αλλά είναι εταιρείες μεταφορών (UBER) ή αυτοκινητοβιομηχανίες κλπ. To αυτόνομο σύστημα δεν είναι το τελικό προϊόν, αλλά ένα εργαλείο για αύξηση πωλήσεων,  τιμών μετοχών ή για μείωση εξόδων (αντικατάσταση οδηγών). Οπότε όσο πιο γρήγορα είναι σε θέση να καλύπτει τις ελάχιστες νομικές απαιτήσεις, τόσο το καλύτερο γι' αυτούς, οπότε περνούν από παράθυρα κανονισμών, γκρίζα σημεία, βαρύ marketing κλπ κλπ. 

Επεξ/σία από Whargoul
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 ώρες πριν, Fubar.gr είπε

Αυτό που φέρεται να "έκλεψε" η UBER απο την Google, είναι τεχνολογία που σχετίζεται με τους αισθητήρες LIDAR. Κρίνοντας απο τα υπόλοιπα στοιχεία, δηλαδή αρχικά disengagements κάθε ένα μίλι το οποίο στη συνέχεια έγινε κάθε 13 μίλια, φαίνεται οτι σε όλα τα υπόλοιπα ξεκίνησαν απο το μηδέν.

Η Waymo την κατηγόρησε ότι έκλεψε ένα ολοκληρωμένο Lidar System, hardware και software. Σε αυτό συμπεριλαμβάνονται νομίζω όλο το σύστημα αυτοοδήγησης στο επίπεδο του αυτοκινήτου τουλάχιστον.

Otto and Uber are currently building and deploying (or intending to deploy) LiDAR systems (or system components) using Waymo’s trade secret designs.

LiDAR systems are made up of thousands of individual hardware and software components that can be configured in virtually limitless combinations and designs. 

by January 2016, Mr. Levandowski had confided in some Waymo colleagues that he planned to “replicate” Waymo’s technology at a Waymo competitor.  As Waymo would later learn, Mr. Levandowski went to great lengths to take what he needed to “replicate” Waymo’s technology and then to meet with Uber executives, all while still a Waymo employee.

(https://regmedia.co.uk/2017/02/23/waymovubercomplaint.pdf)

Δεν είναι λογικό; Πως αλλιώς η Uber κατάφερε να αναπτύξει ένα ολοκληρωμένο σύστημα lidar (hardware και software) σε ελάχιστο χρόνο όταν δεν είχε πρακτικά καθόλου παρόμοια τεχνολογία πριν από την κλοπή; Επίσης, γιατί να κλέψει το ευκολότερο μόνο κομμάτι της τεχνολογίας (για ~700 εκ. μάλιστα) των αισθητήρων, το μέρος που είναι το "πιό απλό και πρακτικά λυμένο" κομμάτι της τεχνολογίας, και που φαντάζομαι θα μπορούσε να αναπτύξει με μικρότερο ρίσκο και κόστος με συνεργασία με τις εξειδικευμένες εταιρίες παραγωγής αυτών των αισθητήρων; Με ποια λογική να δώσουν ~700 εκ. για να πάρουν το μη ουσιαστικό κομμάτι της τεχνολογίας μπαίνοντας στο στόχαστρο της παντοδύναμης alphabet και αναλαμβάνοντας ένα τεράστιο ρίσκο να τους πιάσουν και να τα χάσουν και όλα, όπως και έγινε;

Επίσης υπάρχουν επίσημες πηγές για τα στοιχεία με τα disengagements πέρα από το τι λένε οι ίδιες οι εταιρίες;

5 ώρες πριν, Fubar.gr είπε

Το θέμα των αισθητήρων στα αυτόνομα αυτοκίνητα είναι το πιό απλό και πρακτικά λυμένο, απο την άποψη οτι η υπάρχουσα τεχνολογία καλύπτει πλήρως τις ανάγκες sensing των αυτοκινήτων. Αυτή τη στιγμή ο βασικός στόχος είναι οι αισθητήρες να γίνουν πιό φτηνοί και συμπαγείς, ωστε να μπορούν να μπούν και στα φτηνότερα αυτοκίνητα, και να μήν προεξέχουν αντιαισθητικά καρούμπαλα. Δευτερευόντως είναι να βελτιωθεί η ανάλυση και ακρίβεια, καθώς οι υπάρχοντες κάνουν τη δουλειά τους.

Το πιό δύσκολο στην αυτόνομη οδήγηση και αυτό που θέλει την πιό πολύ δουλειά είναι το planning, δηλαδή η αναγνώριση του δρόμου και των αντικειμένων, η επιλογή πορείας κτλ.

Οπότε το να λέμε οτι η UBER είχε τεχνολογία της Waymo είναι σαν να λέμε οτι αν πάρω μία βιντεοκάμερα RED, θα μπορώ να γυρίσω ταινίες επιπέδου Oscar.

Δέν είναι βεβαιότητα, απλά educated guess.

Που το βασίζω:

1) Όλοι οι αισθητήρες που χρησιμοποιούνται σε αυτές τις εφαρμογές είναι υψηλών προδιαγραφών, και μεταξύ άλλων δίνουν ειδοποίηση όταν τα δεδομένα που βγάζουν είναι out of bounds. Η κεντρική μονάδα σε περίπτωση που κάποιος αισθητήρας βγεί εκτός πρέπει να βγάλει ειδοποίηση και να απενεργοποιήσει το σύστημα αυτοοδήγησης αν το πρόβλημα είναι σημαντικό. Μέχρι τώρα δέν υπάρχει ένδειξη οτι έγινε κάτι τέτοιο.

2) Πρώτη προτεραιότητα στην ανάπτυξη της αυτοοδήγησης είναι να βγάζει μηδενικά false positives, πχ να φρενάρει το αυτοκίνητο στα καλά καθούμενα, νομίζοντας οτι είδε κάτι. Όσο περίεργο και να φαίνεται, είναι δευτερεύον να βγάζει μηδενικά false negatives, δηλαδή να μήν φρενάρει σε ένα εμπόδιο ενώ θα έπρεπε να φρενάρει. Για να αναλαμβάνει τα false negatives υπάρχει ο οδηγός ασφαλείας.

Αυτό γίνεται έχοντας redundant αισθητήρες. Αν ένας αισθητήρας δώσει μια ένδειξη, αλλά οι υπόλοιποι δέν δώσουν, τότε θεωρείται spurious reading απο την κεντρική μονάδα και αγνοείται. Αλλιώς αν ήταν να αντιδρά στις ενδείξεις ακόμα και απο ένα μόνο αισθητήρα, τότε θα έδινε συνέχεια false positives.

Εδώ όμως το περίεργο είναι οτι τρείς διαφορετικοί αισθητήρες πρέπει κανονικά να δώσανε ένδειξη ταυτόχρονα, οπότε η κεντρική μονάδα δέν έπρεπε να το αγνοήσει σαν spurious, όμως αυτό ακριβώς έκανε. Οπότε όλα δείχνουν οτι υπάρχει σοβαρό πρόβλημα σχεδιασμού του software.

Όλα αυτά είναι υποθέσεις χωρίς κανένα στοιχείο για το πως λειτούργησε το σύστημα της Uber. Mένει να τα μάθουμε όταν βγουν τα δεδομένα στην δημοσιότητα.

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Άλλο ένα χτύπημα στη βιομηχανία αυτόνομων αυτοκινήτων. Αντιγράφω απο εδώ:

 

Τελικά επιβεβαιώθηκε οτι το Autopilot ήταν ενεργό στο τελευταίο ατύχημα με το Model X, και οι πρώτες ενδείξεις είναι οτι αυτό το προκάλεσε, στρίβοντας το αυτοκίνητο προς το διαχωριστικό.

Αναρωτιόμουν γιατί ο οδηγός συνέχιζε να χρησιμοποιεί Autopilot ενω είχε αυτό το πρόβλημα, αλλά τελικά η απάντηση είναι προφανής: Η Tesla έχει δημιουργήσει υπερβολικά υψηλές προσδοκίες για τις δυνατότητες εκμάθησης του συστήματος, το "Neural Net", τη συλλογή στοιχείων απο τα χιλιάδες αυτοκίνητα του στόλου, και τα συνεχή OTA updates.

Δεν περνά μια εβδομάδα οπου το Electrek θα δημοσιεύσει κάποιο σχετικό άρθρο:

First look at Tesla’s latest Autopilot (2.5) computer in Model 3, S, and X vehicles

Watch Tesla Autopilot surprisingly handle a construction zone with the new update

Tesla Autopilot keeps impressing owners with its latest software update

Watch Tesla’s latest Autopilot update at work in first drive videos

Tesla’s latest Autopilot update brings some significant improvements to Autosteer and more

Tesla Autopilot appears to be getting closer to ‘On-ramp to Off-ramp’ feature, handles ‘curve of death’

Tesla starts beta-testing new Autopilot update with new feature and more advanced neural net

Tesla promises ‘series of new Autopilot features in 2018’, still plans coast-to-coast drive

A new Tesla Autopilot update is ‘in final testing phase’, says Elon Musk

Μετά απο τέτοιο μπαράζ άρθρων απο τα φιλικά media, είναι προφανές οτι ο οδηγός περίμενε πως απο μέρα σε μέρα το σύστημα θα βελτιωνώταν και θα μπορούσε να κρατήσει την ευθεία στο συγκεκριμένο σημείο.

Εντωμεταξύ, η Tesla στη δήλωση της για το ατύχημα επαναλαμβάνει τις ίδιες ψευτιές όπως και στα προηγούμενα ατυχήματα.

Over a year ago, our first iteration of Autopilot was found by the U.S. government to reduce crash rates by as much as 40%. Internal data confirms that recent updates to Autopilot have improved system reliability.

Όπως έχω γράψει και παλιότερα, το report της NHTSA αναφέρεται στο Automatic Emergency Braking και για συγκεκριμένο τύπο ατυχημάτων (rear end collision) και αφορά όλους τους κατασκευαστές που έχουν τέτοια συστήματα στα αυτοκίνητα τους, όχι την Tesla και το Autopilot συγκεκριμένα. H Tesla επιμένει να διαστρεβλώνει το παραπάνω, λέγοντας πως το Autopilot μειώνει γενικά όλα τα ατυχήματα κατα 40%

In the US, there is one automotive fatality every 86 million miles across all vehicles from all manufacturers. For Tesla, there is one fatality, including known pedestrian fatalities, every 320 million miles in vehicles equipped with Autopilot hardware. If you are driving a Tesla equipped with Autopilot hardware, you are 3.7 times less likely to be involved in a fatal accident.

Άλλη ψευτιά εδώ, γιατι συγκρίνει με τα ατυχήματα του γενικού στόλου αυτοκινήτων. Μόλις η σύγκριση γίνει με αντίστοιχης τιμής και κατηγορίας αυτοκίνητα, φαίνεται οτι τα Tesla είναι σημαντικά πιό ανασφαλή. Κάποια απο τα αυτοκίνητα άλλων κατασκευαστών έχουν μηδέν θανατηφόρα.

Επίσης η Tesla λέει οτι το σύστημα έβγαλε στον οδηγό πολλαπλές προειδοποιήσεις, όμως δέν αναφέρει αν υπήρξε προειδοποίηση συγκεκριμένα αμέσως πρίν τη σύγκρουση. Πιθανολογώ πως όχι.

Όπως και στο θανατηφόρο με το φορτηγό το 2016, αποδείχθηκε πως το σύστημα απέτυχε εντελώς να δεί το φορτηγό και δέν αντέδρασε ούτε κάν έδωσε κάποια άλλη ειδοποίηση στον οδηγό.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

8 ώρες πριν, Fubar.gr είπε

Αναρωτιόμουν γιατί ο οδηγός συνέχιζε να χρησιμοποιεί Autopilot ενω είχε αυτό το πρόβλημα, αλλά τελικά η απάντηση είναι προφανής: Η Tesla έχει δημιουργήσει υπερβολικά υψηλές προσδοκίες για τις δυνατότητες εκμάθησης του συστήματος, το "Neural Net", τη συλλογή στοιχείων απο τα χιλιάδες αυτοκίνητα του στόλου, και τα συνεχή OTA updates.

Μετά απο τέτοιο μπαράζ άρθρων απο τα φιλικά media, είναι προφανές οτι ο οδηγός περίμενε πως απο μέρα σε μέρα το σύστημα θα βελτιωνώταν και θα μπορούσε να κρατήσει την ευθεία στο συγκεκριμένο σημείο.

Άρα, λες ότι παρόλο που ο οδηγός παραπονιόταν, υποτίθεται, ότι το autopilot έστριβε συνεχώς μόνο του προς το διαχωριστικό αυτός συνέχιζε αυτοκτονικά να το εμπιστεύεται τυφλά και να το αφήνει να πηγαίνει μόνο του επειδή είχε παρασυρθεί από τα άρθρα στο electrec! Αν ισχύει τότε είτε death wish είχε ο άνθρωπος ή δεν ήταν και το πιο κοφτερό μαχαίρι στο συρτάρι που λένε οι Αμερικάνοι!

8 ώρες πριν, Fubar.gr είπε

Εντωμεταξύ, η Tesla στη δήλωση της για το ατύχημα επαναλαμβάνει τις ίδιες ψευτιές όπως και στα προηγούμενα ατυχήματα.
 

Ξέχασες μόνο να βάλεις τα πραγματικά στοιχεία που ανέφερε η Tesla για το ατύχημα, όπως ότι από το ίδιο σημείο έχουν περάσει 85000 φόρες tesla με ενεργοποιημένο autopilot, 200 την ημέρα. Επίσης ότι το προστατευτικό στο διαχωριστικό είχε καταστραφεί από ένα μεγάλο δυστύχημα (με άνθρωπο οδηγό βέβαια οπότε δεν αξίζει να το αναφέρουμε) 11 μέρες πριν.

8 ώρες πριν, Fubar.gr είπε

Άλλη ψευτιά εδώ, γιατι συγκρίνει με τα ατυχήματα του γενικού στόλου αυτοκινήτων. Μόλις η σύγκριση γίνει με αντίστοιχης τιμής και κατηγορίας αυτοκίνητα, φαίνεται οτι τα Tesla είναι σημαντικά πιό ανασφαλή. Κάποια απο τα αυτοκίνητα άλλων κατασκευαστών έχουν μηδέν θανατηφόρα.

Έχεις κάποια πηγή για αυτά;

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης
4 λεπτά πριν, Omnigeek είπε

 Επίσης ότι το προστατευτικό στο διαχωριστικό είχε καταστραφεί από ένα μεγάλο δυστύχημα (με άνθρωπο οδηγό βέβαια οπότε δεν αξίζει να το αναφέρουμε) 11 μέρες πριν.

 

Αυτές οι -ας το πούμε- ιδιαιτερότητες- δεν πρόκειται να εκλείψουν ποτέ. Αυτές οι καταστάσεις θα πρέπει να είναι άσκηση ρουτίνας για τα αυτόνομα οχήματα, ειδάλλως θα είναι ολοένα και πιο συχνό φαινόμενο -καθώς τα αυτόνομα θα αυξάνονται- να έχουμε ατυχήματα/δυστυχήματα επειδή προστέθηκε ή άλλαξε μια παράμετρος σε ένα "γνωστό" -για τα αυτόνομα- περιβάλλον.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 λεπτό πριν, VChris είπε

Αυτές οι -ας το πούμε- ιδιαιτερότητες- δεν πρόκειται να εκλείψουν ποτέ. Αυτές οι καταστάσεις θα πρέπει να είναι άσκηση ρουτίνας για τα αυτόνομα οχήματα, ειδάλλως θα είναι ολοένα και πιο συχνό φαινόμενο -καθώς τα αυτόνομα θα αυξάνονται- να έχουμε ατυχήματα/δυστυχήματα επειδή προστέθηκε ή άλλαξε μια παράμετρος σε ένα "γνωστό" -για τα αυτόνομα- περιβάλλον.

Σωστά. Ο στόχος είναι το ΑΙ σύστημα να "καταλαβαίνει"  όσο γίνεται περισσότερο το περιβάλλον του με την ελάχιστη δυνατή παρέμβαση ανθρώπων. Αυτή την πορεία ακολουθούν οι Tesla/Nvidia με το deep learning και τα νευρωνικά δίκτυα υπερυπολογιστών, ένα σύστημα που θα αναγνωρίζει οπτικά παραμέτρους ίδιους με αυτούς που αναγνωρίζει στιγμιαία ο ανθρώπινος εγκέφαλος και προσαρμόζεται αντίστοιχα αντί για απλή 3d χαρτογράφηση και αισθητήρες αποφυγής εμποδίων.

https://www.nvidia.com/en-us/self-driving-cars/drive-px/

320 trillion deep learning operations per second (TOPS) — that enable Level 5 autonomous driving.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 ώρες πριν, plotolp είπε

Το video για όσους δεν το είδαν

https://youtu.be/XtTB8hTgHbM

vlito.png

Δώστε αυτόνομα οχήματα στα "βλήτα" μπας και ξεμπερδέψουμε. Τις λάμπες του δρόμου που φαίνονται αναμμένες στο βίντεο δεν τις είδε καθόλου. Θα βλέπει και αυτός με Deep Learning ή Bayesian classifiers φαίνεται.

 

http://www.pronews.gr/auto-moto/678270_ipa-ston-aytomato-piloto-itan-moiraio-tesla
 

Αναφορά σε κείμενο

 

Στα δευτερόλεπτα που οδήγησαν στην σύγκρουση υπήρχαν οι απαραίτητες οπτικές και ηχητικές προειδοποιήσεις, που ζητούν από τον οδηγό να βάλει τα χέρια στο τιμόνι και να πάρει τον έλεγχο. Σύμφωνα με την Tesla ο οδηγός είχε περίπου 5 δευτερόλεπτα ή 150 μέτρα για να προλάβει την σύγκρουση με το τσιμεντένιο διαχωριστικό, αλλά όπως δείχνει ο υπολογιστής του αυτοκινήτου, κάτι τέτοιο δεν έγινε.

 

Μπλα Μπλα Μπλα Μπλα.........................

Αναφορά σε κείμενο

Η Tesla βεβαίως δεν απαντά γιατί το Autopilot απέτυχε να αναγνωρίσει το τσιμεντένιο διαχωριστικό και να το αποφύγει. 

Έλα μου ντε. Μήπως επειδή δεν έχει ίχνος αληθινής νοημοσύνης/αντίληψης; Ούτε καν στο επίπεδο μιας σφήκας;

 

 

Στις 3/31/2018 στις 8:24 ΜΜ, Omnigeek είπε

Σωστά. Ο στόχος είναι το ΑΙ σύστημα να "καταλαβαίνει"  όσο γίνεται περισσότερο το περιβάλλον του με την ελάχιστη δυνατή παρέμβαση ανθρώπων. Αυτή την πορεία ακολουθούν οι Tesla/Nvidia με το deep learning και τα νευρωνικά δίκτυα υπερυπολογιστών, ένα σύστημα που θα αναγνωρίζει οπτικά παραμέτρους ίδιους με αυτούς που αναγνωρίζει στιγμιαία ο ανθρώπινος εγκέφαλος και προσαρμόζεται αντίστοιχα αντί για απλή 3d χαρτογράφηση και αισθητήρες αποφυγής εμποδίων.

https://www.nvidia.com/en-us/self-driving-cars/drive-px/

320 trillion deep learning operations per second (TOPS) — that enable Level 5 autonomous driving.

Το AI της Tesla "σκουντούφλησε" πιθανότατα εξαιτίας του προηγούμενου τρακαρίσματος πάνω στο διαχωριστικό, γεγονός το οποίο αλλοίωσε την όψη του τελευταίου. Αυτή η αλλαγή μοτίβου αφήνει σχεδόν ανεπηρέαστη την κρίση των βιολογικών εγκεφάλων, γιατί δεν έχουν καμία επαφή με deep learning και τη μέθοδο εκπαίδευσής τους που είναι το back propagation.

Τα νευρωνικά δίκτυα από την άλλη μαθαίνουν με στατιστικό τρόπο. Πολύ μικρές αλλαγές σε ένα μοτίβο μπορεί να οδηγήσουν σε εντελώς λάνθασμένες κατηγοριοποιήσεις. Επίσης δείχνοντας σε ένα νευρωνικό δίκτυο αλλόκοτους πίνακες αφηρημένης τέχνης, με στατιστικές κατανομές πίξελ παρόμοιες με αυτές αληθινών αντικειμένων, ξεγελάς το δίκτυο κάνοντας το να νομίζει ότι βλέπει πραγματικά αντικείμενα. Και μάλιστα με υψηλό βαθμό εμπιστοσύνης. 

Είναι τόσο τραγικό το κόλλημα των πληροφορικάριων με τη στατιστική ως μέθοδο προσέγγισης της νοημοσύνης των ζώων, που αμφιβάλλω αν θα δούμε οτιδήποτε νοήμον απ' αυτούς στα επόμενα 100 χρόνια.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
1 ώρα πριν, pirmen56 είπε

Μπλα Μπλα Μπλα Μπλα.........................

Έλα μου ντε. Μήπως επειδή δεν έχει ίχνος αληθινής νοημοσύνης/αντίληψης; Ούτε καν στο επίπεδο μιας σφήκας;

Το AI της Tesla "σκουντούφλησε" πιθανότατα εξαιτίας του προηγούμενου τρακαρίσματος πάνω στο διαχωριστικό, γεγονός το οποίο αλλοίωσε την όψη του τελευταίου. Αυτή η αλλαγή μοτίβου αφήνει σχεδόν ανεπηρέαστη την κρίση των βιολογικών εγκεφάλων, γιατί δεν έχουν καμία επαφή με deep learning και τη μέθοδο εκπαίδευσής τους που είναι το back propagation.

Το μόνο πρόβλημα με το πόρισμά σου είναι ότι το μεγάλο δυστύχημα (με άνθρωπο οδηγό) που κατέστρεψε ολοκληρωτικά το προστατευτικό είχε γίνει 11 μέρες πριν και σύμφωνα με τα δεδομένα από το ίδιο σημείο περνάνε κατά μέσο όρο 200 tesla με ενεργό autopilot την ημέρα.

Στο βίντεο (3:39) φαίνεται πόσο δύσκολο και επικίνδυνο είναι το σημείο αυτό, που εξηγεί γιατί έπεσαν επάνω του άλλα 2 αυτοκίνητα που ακολουθούσαν ακριβώς από πίσω. (επίσης λίγο μετά το video δείχνει ότι το αυτοκίνητο δεν λαμπάδιασε στιγμιαία όπως λέγανε οι δημοσιογράφοι αλλά πολύ αργά που, στοιχείο στοιχείο σχεδόν).

Για το ΑΙ και τα νευρωνικά αν θέλεις δες αυτό το βίντεο

Υπολόγισε μετά επίσης ότι τα συστήματα της waymo είναι περίπου 40 φορές πιο αργά από τα καινούργια της Nvidia.

Επεξ/σία από Omnigeek
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Φταίει ο οδηγός, φταίνε τα φώτα, φταίνε η λωρίδες, φταίει ο ήλιος, το χρώμα του φορτηγού, τα φεγγάρι.  Φταίνε τα πάντα εκτός από το σύστημα και τον τρόπο που το προωθεί η Tesla στους αγοραστές.

200 αυτοκίνητα την ημέρα, 200 τυχεροί την ημέρα που δεν κάρφωσαν πάνω του, όπως  φαίνεται και από τις τρομερές και ασφαλείς ικανότητες του Tesla Autopilot στο παρακάτω βίντεο.

 

 

  • Thanks 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...