voltmod Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Είναι δύσκολο να σκεφτούμε κάποια άλλη εταιρεία που να είναι τόσο συνδεδεμένη και ενθουσιασμένη με την Τεχνητή Νοημοσύνη από την Google. Με πολλών δισεκατομμυρίων δολαρίων επενδύσεις σε startups βαθιάς εκμάθησης όπως η DeepMind, και υπεύθυνη για ορισμένες από τις μεγαλύτερες τεχνολογικές ανακαλύψεις και καινοτομίες στον χώρο των νευρωνικών δικτύων, η Google εκφράζει τον μεγαλύτερο υποστηρικτή της Τεχνητής Νοημοσύνης. Αυτό όμως δεν σημαίνει ότι δεν υπάρχουν ζητήματα που σχετίζονται με την Τεχνητή Νοημοσύνη που τρομάζουν τον γίγαντα της αναζήτησης. Σε μία νέα εργασία με τον τίτλο “Συγκεκριμένα Προβλήματα στην Ασφάλεια Τεχνητής Νοημοσύνης”, ερευνητές της Google, μαζί με ειδικούς και εμπειρογνώμονες από τα Πανεπιστήμια Berkeley και Stanford, παραθέτουν ορισμένες από τις πιθανές “αρνητικές παρενέργειες” που μπορεί να προκύψουν από τα συστήματα Τεχνητής Νοημοσύνης κατά τα επόμενα έτη. Αντί να εστιάσουν ωστόσο στην μακρινή απειλή της υπερ-ευφυίας, στην 29σέλιδη αναφορά εξετάζονται “ακούσιες και επιβλαβείς συμπεριφορές που μπορεί να προκύψουν από την κακή σχεδίαση”. Δύο βασικά θέματα που προκύπτουν, είναι η ιδέα μίας μηχανής σκόπιμα παραπλανητικής προς τους δημιουργούς της προκειμένου να ολοκληρώσει τον στόχο ή η πρόκληση τραυματισμού ή ζημιάς με στόχο να “αποκτήσει μικρό πλεονέκτημα” προκειμένου να φτάσει στον στόχο. “Πρόκειται για μία εξαιρετική εργασία που επιτυγχάνει μία πολυπόθητη συστηματική ταξινόμηση των θεμάτων ασφαλείας που σχετίζονται με τα αυτόνομα συστήματα Τεχνητής Νοημοσύνης” δήλωσε ο George Zarkadakis, συγγραφέας του βιβλίου In Our Own Image: Will Artificial Intelligent Save or Destroy Us?. Σχετικά με τους φόβους για την Τεχνητή Νοημοσύνη και αν είναι δικαιολογημένοι, o Zarkadakis υποστηρίζει ότι οι προειδοποιήσεις της Google, αν και ενδεχομένως εκφράζουν ανησυχία, απέχουν από τις προειδοποιήσεις που έχουν εκφράσει άνθρωποι όπως οι Stephen Hawking και Elon Musk. “Το έγγραφο της Google είναι μία λογική προσέγγιση από άποψη engineering που έχει στόχο να προσδιορίσει τα σημεία στα οποία πρέπει να δοθεί προσοχή στην ασφάλεια κατά τον σχεδιασμό αυτόνομων συστημάτων Τεχνητής Νοημοσύνης, καθώς και για να προτείνει τρόπους σχεδιασμού μηχανισμών ασφαλείας”. Site: DigitalTrends Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
drakoulis Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Ολοι φοβόμαστε εναν Τerminator αν και μια μέρα θα ήθελα έναν δικό μου 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
paparovic Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Ολοι φοβόμαστε εναν Τerminator αν και μια μέρα θα ήθελα έναν δικό μου Πιάσε καμιά δεκαριά να υπάρχουν Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Retromaniac Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Αυτό που πρέπει να φοβάμαστε από την τεχνητή νοημοσύνη, στο απώτερο μέλλον τουλάχιστον, δεν είναι αν θα αποκτήσει δικιά της αντίληψη αλλά να πάρει λάθος απόφαση. Γιατί όταν έχεις να κάνεις με νευρωνικά δίκτυα, και με μη προβλεπόμενα δεδομένα, είναι σχεδόν αδύνατο σε ένα σύστημα με πολλές αρμοδιότητες να προβλέψεις τα πάντα. 5 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Joe-4 Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Αυτό που φοβάμαι εγώ με την τεχνητή νοημοσύνη είναι ότι δεν είναι νοημοσύνη και ούτε πλησιάζει στο να είναι. Πιστεύω πως και σε 300 χρόνια πάλι δεν θα είναι νοημοσύνη. 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
nick0lis Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Οι πλούσιοι φοβούνται μην αρχίσουν τα robot και μοιράζουν τα χρήματα τους στους φτωχούς 5 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
PunishedSnake Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Αν υπήρχε ποτέ τέτοια νοημοσύνη,το πιο τρομαχτικό και συνάμα λογικό θα ήταν πως θα έβλεπε τι σκατά είμαστε οι άνθρωποι και θα μας έδινε αυτό που μας αξίζει. 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
aggelos_ Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Προφανώς ο καθένας θα ήθελε έναν προσωπικό στρατό από ρομπότ εξτερμινέιτορς Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Lied Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Οι πλούσιοι φοβούνται μην αρχίσουν τα robot και μοιράζουν τα χρήματα τους στους φτωχούς Καπου διάβαζα για ενα "ΑΙ" που μπηκε δοκιμαστικα σε τραπεζα για καλυτερη διαχειρηση στα συστηματα αναλυψεων. Μετα απο λιγο καιρο αρχισε να προστατευει τους καταναλωτες που εκαναν overdraft απο το λογαριασμο τους ενω ειχαν χρηματα σε αλλον. Εφτασε στο σημειο να φτιαχνει fund απο υπολοιπα λογαριασμων που δεν κινδυνευαν απο overdraft και "δανιζε" τους μικρους λογαριασμους ουτως ωστε να μην επιτοκιζονται απο την τραπεζα! Φυσικα τιποτα απ αυτα δεν ηταν στον αρχικο του προγραμματισμο αλλα αποκτηθηκαν απο μια διαδικασια "εκμαθησης" του αλγοριθμου. Και φυσικα γελασαν, το δημοσιευσαν και το σταματησαν επιτοπου. 2 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
badweed Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 νταξυ με την τεχνητη νοημοσυνη , κανα αρθρο για την φυσικη ηλιθιοτητα που οσο να ειναι , υπαρχει εντονη σε ολους μας ,ατμιζει στον μεταξυ μας αερα που αναπνεουμε , ποτε θα συναντησουμε ; ταμπου ; 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Bspus Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Αυτό που φοβάμαι εγώ με την τεχνητή νοημοσύνη είναι ότι δεν είναι νοημοσύνη και ούτε πλησιάζει στο να είναι. Πιστεύω πως και σε 300 χρόνια πάλι δεν θα είναι νοημοσύνη. Και τι φοβασαι? Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Gtr34 Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Η τεχνική νοημοσύνη, πιθανή απειλή, για τον αγγελικά πλασμένο κόσμο μας. 2 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
ko5ta5 Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Καπου διάβαζα για ενα "ΑΙ" που μπηκε δοκιμαστικα σε τραπεζα για καλυτερη διαχειρηση στα συστηματα αναλυψεων. Μετα απο λιγο καιρο αρχισε να προστατευει τους καταναλωτες που εκαναν overdraft απο το λογαριασμο τους ενω ειχαν χρηματα σε αλλον. Εφτασε στο σημειο να φτιαχνει fund απο υπολοιπα λογαριασμων που δεν κινδυνευαν απο overdraft και "δανιζε" τους μικρους λογαριασμους ουτως ωστε να μην επιτοκιζονται απο την τραπεζα! Φυσικα τιποτα απ αυτα δεν ηταν στον αρχικο του προγραμματισμο αλλα αποκτηθηκαν απο μια διαδικασια "εκμαθησης" του αλγοριθμου. Και φυσικα γελασαν, το δημοσιευσαν και το σταματησαν επιτοπου. Αν λες αυτό, ήταν πρωταπριλιάτικο. Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
trelaras52 Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 Αυτό που πρέπει να φοβάμαστε από την τεχνητή νοημοσύνη, στο απώτερο μέλλον τουλάχιστον, δεν είναι αν θα αποκτήσει δικιά της αντίληψη αλλά να πάρει λάθος απόφαση. Γιατί όταν έχεις να κάνεις με νευρωνικά δίκτυα, και με μη προβλεπόμενα δεδομένα, είναι σχεδόν αδύνατο σε ένα σύστημα με πολλές αρμοδιότητες να προβλέψεις τα πάντα. η αποφαση ενος συστηματος με τεχνητη νοημοσυνη χαρακτηριζεται λαθος απο την δικια σου αντιληψη και νοημοσυνη ως ανθρωπινο ειδος..το ταδε ρομποτ μπορει να επιλεξει να σας σκοτωσει επειδη παρασητητε η ειστε εμποδιο στην εξελιξη του..το ανθρωπινο ειδος το κανει εδω και χιλιαδες χρονια αυτο γιατι τοσα ερωτηματα γιαυτο το πραγμα?ειναι επομενο οτι θα το κανει(αν ποτε υπαρξει ολοκληρωμενο AI) οπως ο ανθρωπος σκοτωνει χλωριδα πανιδα προς οφελος του (γιαυτον σωστη επιλογη)ετσι και το ρομποτ θα σε σκοτωσει για να σε μελετησει πχ η για οτι αλλο κρινει αυτο σωστο για εκεινο..οταν περιοριζεις ενα ΑΙ με δικληδες ασφαλειας και πραγματα που δεν επιτρεπεται να κανει δεν του δινεις την δυνατοτητα να δημιουργησει την δικια του αντιληψη να μαθει απτο περιβαλλον του τι ειναι καλο και κακο για "αυτο" και τι θα αποφασισει αυτο για την ζωη του..ουσιαστικα εφτιαξες κατι που κανει προγραμματισμενα πραγματα.μαριονετα δλδ.οταν ο σνθρωπος αποφασισει να το δημιουργησει θα δεχθει και τις αναλογες επιπτωσεις.πηρα την αφορμη απτο κειμενο του συμφορουμιτη δεν προσβαλω κανεναν,λεω την γνωμη μου 2 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Black Demis Δημοσ. 28 Ιουνίου 2016 Share Δημοσ. 28 Ιουνίου 2016 @Retromaniac εδώ κάνεις λάθος.. Το τι είναι λάθος απόφαση είναι ένα θέμα... Πχ αν θεώρησει, το ανθρώπινο είδος μια μάστιγα που καταστρέφει τον πλανήτη κάτι σαν ένας ιός θα είναι λάθος αντίληψη? Όχι.. Δεν θα είναι 1 Συνδέστε για να σχολιάσετε Κοινοποίηση σε άλλες σελίδες άλλες επιλογές
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα