Προς το περιεχόμενο

Ερευνητικό έγγραφο της Google αποκαλύπτει τι φοβάται περισσότερο σε σχέση με την Τεχνητή Νοημοσύνη


voltmod

Προτεινόμενες αναρτήσεις

Είναι δύσκολο να σκεφτούμε κάποια άλλη εταιρεία που να είναι τόσο συνδεδεμένη και ενθουσιασμένη με την Τεχνητή Νοημοσύνη από την Google.

Με πολλών δισεκατομμυρίων δολαρίων επενδύσεις σε startups βαθιάς εκμάθησης όπως η DeepMind, και υπεύθυνη για ορισμένες από τις μεγαλύτερες τεχνολογικές ανακαλύψεις και καινοτομίες στον χώρο των νευρωνικών δικτύων, η Google εκφράζει τον μεγαλύτερο υποστηρικτή της Τεχνητής Νοημοσύνης. Αυτό όμως δεν σημαίνει ότι δεν υπάρχουν ζητήματα που σχετίζονται με την Τεχνητή Νοημοσύνη που τρομάζουν τον γίγαντα της αναζήτησης.

 

Σε μία νέα εργασία με τον τίτλο “Συγκεκριμένα Προβλήματα στην Ασφάλεια Τεχνητής Νοημοσύνης”, ερευνητές της Google, μαζί με ειδικούς και εμπειρογνώμονες από τα Πανεπιστήμια Berkeley και Stanford, παραθέτουν ορισμένες από τις πιθανές “αρνητικές παρενέργειες” που μπορεί να προκύψουν από τα συστήματα Τεχνητής Νοημοσύνης κατά τα επόμενα έτη. Αντί να εστιάσουν ωστόσο στην μακρινή απειλή της υπερ-ευφυίας, στην 29σέλιδη αναφορά εξετάζονται “ακούσιες και επιβλαβείς συμπεριφορές που μπορεί να προκύψουν από την κακή σχεδίαση”. Δύο βασικά θέματα που προκύπτουν, είναι η ιδέα μίας μηχανής σκόπιμα παραπλανητικής προς τους δημιουργούς της προκειμένου να ολοκληρώσει τον στόχο ή η πρόκληση τραυματισμού ή ζημιάς με στόχο να “αποκτήσει μικρό πλεονέκτημα” προκειμένου να φτάσει στον στόχο.

 

“Πρόκειται για μία εξαιρετική εργασία που επιτυγχάνει μία πολυπόθητη συστηματική ταξινόμηση των θεμάτων ασφαλείας που σχετίζονται με τα αυτόνομα συστήματα Τεχνητής Νοημοσύνης” δήλωσε ο George Zarkadakis, συγγραφέας του βιβλίου In Our Own Image: Will Artificial Intelligent Save or Destroy Us?.

 

Σχετικά με τους φόβους για την Τεχνητή Νοημοσύνη και αν είναι δικαιολογημένοι, o Zarkadakis υποστηρίζει ότι οι προειδοποιήσεις της Google, αν και ενδεχομένως εκφράζουν ανησυχία, απέχουν από τις προειδοποιήσεις που έχουν εκφράσει άνθρωποι όπως οι Stephen Hawking και Elon Musk. “Το έγγραφο της Google είναι μία λογική προσέγγιση από άποψη engineering που έχει στόχο να προσδιορίσει τα σημεία στα οποία πρέπει να δοθεί προσοχή στην ασφάλεια κατά τον σχεδιασμό αυτόνομων συστημάτων Τεχνητής Νοημοσύνης, καθώς και για να προτείνει τρόπους σχεδιασμού μηχανισμών ασφαλείας”.

 

Link.png Site: DigitalTrends

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Αυτό που πρέπει να φοβάμαστε από την τεχνητή νοημοσύνη, στο απώτερο μέλλον τουλάχιστον, δεν είναι αν θα αποκτήσει δικιά της αντίληψη αλλά να πάρει λάθος απόφαση.

Γιατί όταν έχεις να κάνεις με νευρωνικά δίκτυα, και με μη προβλεπόμενα δεδομένα, είναι σχεδόν αδύνατο σε ένα σύστημα με πολλές αρμοδιότητες να προβλέψεις τα πάντα.

  • Like 5
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Αυτό που φοβάμαι εγώ με την τεχνητή νοημοσύνη είναι ότι δεν είναι νοημοσύνη και ούτε πλησιάζει στο να είναι. Πιστεύω πως και σε 300 χρόνια πάλι δεν θα είναι νοημοσύνη.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Αν υπήρχε ποτέ τέτοια νοημοσύνη,το πιο τρομαχτικό και συνάμα λογικό θα ήταν πως θα έβλεπε τι σκατά είμαστε οι άνθρωποι και θα μας έδινε αυτό που μας αξίζει.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Οι πλούσιοι φοβούνται μην αρχίσουν τα robot και μοιράζουν τα χρήματα τους στους φτωχούς

Καπου διάβαζα για ενα "ΑΙ" που μπηκε δοκιμαστικα σε τραπεζα για καλυτερη διαχειρηση στα συστηματα αναλυψεων. Μετα απο λιγο καιρο αρχισε να προστατευει τους καταναλωτες που εκαναν overdraft απο το λογαριασμο τους ενω ειχαν χρηματα σε αλλον. Εφτασε στο σημειο να φτιαχνει fund απο υπολοιπα λογαριασμων που δεν κινδυνευαν απο overdraft και "δανιζε" τους μικρους λογαριασμους ουτως ωστε να μην επιτοκιζονται απο την τραπεζα!

Φυσικα τιποτα απ αυτα δεν ηταν στον αρχικο του προγραμματισμο αλλα αποκτηθηκαν απο μια διαδικασια "εκμαθησης" του αλγοριθμου.

Και φυσικα γελασαν, το δημοσιευσαν και το σταματησαν επιτοπου.

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

νταξυ με την τεχνητη νοημοσυνη , κανα αρθρο για την φυσικη ηλιθιοτητα που  οσο να ειναι , υπαρχει εντονη σε ολους μας ,ατμιζει στον μεταξυ μας αερα που αναπνεουμε , ποτε θα συναντησουμε ; 

 

ταμπου ; 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Αυτό που φοβάμαι εγώ με την τεχνητή νοημοσύνη είναι ότι δεν είναι νοημοσύνη και ούτε πλησιάζει στο να είναι. Πιστεύω πως και σε 300 χρόνια πάλι δεν θα είναι νοημοσύνη.

 

Και τι φοβασαι?

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Καπου διάβαζα για ενα "ΑΙ" που μπηκε δοκιμαστικα σε τραπεζα για καλυτερη διαχειρηση στα συστηματα αναλυψεων. Μετα απο λιγο καιρο αρχισε να προστατευει τους καταναλωτες που εκαναν overdraft απο το λογαριασμο τους ενω ειχαν χρηματα σε αλλον. Εφτασε στο σημειο να φτιαχνει fund απο υπολοιπα λογαριασμων που δεν κινδυνευαν απο overdraft και "δανιζε" τους μικρους λογαριασμους ουτως ωστε να μην επιτοκιζονται απο την τραπεζα!

Φυσικα τιποτα απ αυτα δεν ηταν στον αρχικο του προγραμματισμο αλλα αποκτηθηκαν απο μια διαδικασια "εκμαθησης" του αλγοριθμου.

Και φυσικα γελασαν, το δημοσιευσαν και το σταματησαν επιτοπου.

 

Αν λες αυτό, ήταν πρωταπριλιάτικο.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Αυτό που πρέπει να φοβάμαστε από την τεχνητή νοημοσύνη, στο απώτερο μέλλον τουλάχιστον, δεν είναι αν θα αποκτήσει δικιά της αντίληψη αλλά να πάρει λάθος απόφαση.

Γιατί όταν έχεις να κάνεις με νευρωνικά δίκτυα, και με μη προβλεπόμενα δεδομένα, είναι σχεδόν αδύνατο σε ένα σύστημα με πολλές αρμοδιότητες να προβλέψεις τα πάντα.

η αποφαση ενος συστηματος με τεχνητη νοημοσυνη χαρακτηριζεται λαθος απο την δικια σου αντιληψη και νοημοσυνη ως ανθρωπινο ειδος..το ταδε ρομποτ μπορει να επιλεξει να σας σκοτωσει επειδη παρασητητε η ειστε εμποδιο στην εξελιξη του..το ανθρωπινο ειδος το κανει εδω και χιλιαδες χρονια αυτο γιατι τοσα ερωτηματα γιαυτο το πραγμα?ειναι επομενο οτι θα το κανει(αν ποτε υπαρξει ολοκληρωμενο AI) οπως ο ανθρωπος σκοτωνει χλωριδα πανιδα προς οφελος του (γιαυτον σωστη επιλογη)ετσι και το ρομποτ θα σε σκοτωσει για να σε μελετησει πχ η για οτι αλλο κρινει αυτο σωστο για εκεινο..οταν περιοριζεις ενα ΑΙ με δικληδες ασφαλειας και πραγματα που δεν επιτρεπεται να κανει δεν του δινεις την δυνατοτητα να δημιουργησει την δικια του αντιληψη να μαθει απτο περιβαλλον του τι ειναι καλο και κακο για "αυτο" και τι θα αποφασισει αυτο για την ζωη του..ουσιαστικα εφτιαξες κατι που κανει προγραμματισμενα πραγματα.μαριονετα δλδ.οταν ο σνθρωπος αποφασισει να το δημιουργησει θα δεχθει και τις αναλογες επιπτωσεις.πηρα την αφορμη απτο κειμενο του συμφορουμιτη δεν προσβαλω κανεναν,λεω την γνωμη μου :)

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

@Retromaniac εδώ κάνεις λάθος.. Το τι είναι λάθος απόφαση είναι ένα θέμα... Πχ αν θεώρησει, το ανθρώπινο είδος μια μάστιγα που καταστρέφει τον πλανήτη κάτι σαν ένας ιός θα είναι λάθος αντίληψη? Όχι.. Δεν θα είναι

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...