Προς το περιεχόμενο

Ο Sundar Pichai των Alphabet και Google ζήτησε τη νομοθετική ρύθμιση της τεχνητής νοημοσύνης


voltmod

Προτεινόμενες αναρτήσεις

29 λεπτά πριν, Rockavlon είπε

Μακάρι σε μερικά χρόνια να έχει την εξουσία μια εξελιγμένη ΤΝ.

 

Καταλαβαίνεις τι λες; Οι ΤΝ θα μπορούν να σκεφτούν αλλά δεν θα έχουν καθόλου αισθήματα. Θα είναι η απόλυτη εφαρμογή του ορθολογισμού. Π.χ. Πρόβλημα για την ΤΝ: Έχουμε 3.000 κατάδικους με ισόβια που δεν πρόκειται να βγουν ποτέ από την φυλακή και δεν προσφέρουν οικονομικά τίποτα στην κοινωνία ενώ καταναλώνουνε και πόρους. Λύση από ΤΝ: Σκοτώστε τους όλους! Έτσι γίνεται οικονομία και κερδίζουμε πόρους. Problem Sold! 

Αν νομίζεις ότι οι ΤΝ θα κυβερνήσουν καλύτερα από τους ανθρώπους γιατί νομίζεις ότι όλοι οι μεγάλοι παίκτες της τεχνολογίας ανησυχούν για την εμφάνισή τους; 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Απαντ. 37
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

1 λεπτό πριν, anax111 είπε

Καταλαβαίνεις τι λες; Οι ΤΝ θα μπορούν να σκεφτούν αλλά δεν θα έχουν καθόλου αισθήματα. Θα είναι η απόλυτη εφαρμογή του ορθολογισμού. Π.χ. Πρόβλημα για την ΤΝ: Έχουμε 3.000 κατάδικους με ισόβια που δεν πρόκειται να βγουν ποτέ από την φυλακή και δεν προσφέρουν οικονομικά τίποτα στην κοινωνία ενώ καταναλώνουνε και πόρους. Λύση από ΤΝ: Σκοτώστε τους όλους! Έτσι γίνεται οικονομία και κερδίζουμε πόρους. Problem Sold! 

Αν νομίζεις ότι οι ΤΝ θα κυβερνήσουν καλύτερα από τους ανθρώπους γιατί νομίζεις ότι όλοι οι μεγάλοι παίκτες της τεχνολογίας ανησυχούν για την εμφάνισή τους; 

 

Δεν πάει έτσι... Εξαρτάται τι δικλείδες ασφάλειας και τι περιορισμούς θα θέτει ο άνθρωπος-κατασκευαστής ανα περίπτωση... Δες πχ. τους 3 νόμους της ρομποτικής του Ασιμωφ

  1. Το ρομπότ ( ή η ΑΙ) δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον
  2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
  3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

17 λεπτά πριν, michael92 είπε

Όταν μια μεγάλη εταιρεία προτείνει νομοθετικές ρυθμίσεις, συνήθως το κάνει για να εμποδίσει την εμφάνιση ανταγωνιστών.

Δεν θα διαφωνήσω απλά στο πίσω μέρος του μυαλού μου υπάρχει η σκέψη ότι εκεί στις ΗΠΑ δεν είναι και τόσο φυσιολογικές οι καταστάσεις για τις εταιρίες... Δεν είναι τυχαίο ότι έφερε ως παράδειγμα την EE ή το μπηνιά της MS...

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

λέει τα αυτονόητα και μπράβο του.

Αυριο μπορεί να πουλήσει μια εταιρια την αναγνώριση προσώπου σε οποιονδήποτε. Ακομη και σε σουπερ μαρκετ που θα βλέπει τη φατσα σου και θα σου στέλνει επιτόπου sms οτι έχει προσφορά τα ουλτρεξ. Προφανώς αυτο ειναι απλα ενοχλητικο και οχι επικίνδυνο αλλα οι δυνατότητες ειναι τεράστιες.  

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Το σίγουρο είναι ότι δεν υπάρχει καν ένα σύνολο κανόνων για τους παίκτες της αγοράς ούτε με νομοθετική ρύθμιση ακόμα, οπότε ίσως παγκοσμίως πρέπει να οριοθετηθούν κανόνες για τα όρια που υπάρχουν. Βλέποντας μάλιστα την γνωστή σειρά Westworld που εξιδανικεύει τα όρια της Α.Ι. και πως μπορούν να ξεπεραστούν μπορείτε να πάρετε μια γεύση, παίζει εξάλλου και ο Αντονι Χόπνκινς ο οποίος έχει κρίσιμες απαντήσεις....

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
1 ώρα πριν, Eloy είπε

Δεν πάει έτσι... Εξαρτάται τι δικλείδες ασφάλειας και τι περιορισμούς θα θέτει ο άνθρωπος-κατασκευαστής ανα περίπτωση... Δες πχ. τους 3 νόμους της ρομποτικής του Ασιμωφ

  1. Το ρομπότ ( ή η ΑΙ) δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον
  2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
  3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο

 

Σου θυμίζω ότι στα μυθιστορήματα του Ασίμοφ και αν θυμάμαι καλά στο τέλος της "Γαλαξιακής Αυτοκρατορίας" αποκαλύπτεται ότι τελικά τα Ρομπότ βρήκαν τρόπο να παρακάμψουν τις δικλείδες ασφαλείας. Από την στιγμή που σκέφτεται κάτι και έχει συνείδηση του εαυτού του πολύ γρήγορα θα έρθει αντιμέτωπο με το ερώτημα αν τελικά ο θάνατος ενός ή πολλών ανθρώπων είναι προς το συμφέρον της ανθρωπότητας.

Επεξ/σία από anax111
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Έχετε υπόψην ότι στην πυραμίδα με τους κινδύνους όσον αφορά τον αφανισμό της ανθρωπότητας στην πρώτη θέση είναι η τεχνητή νοημοσύνη και δεύτερος έρχεται ο πυρηνικός πόλεμος.Οποτε  οτι αφορά την τεχνητή χρίζει ενδιαφέροντος και προσοχής.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 λεπτό πριν, vortex365 είπε

Έχετε υπόψην ότι στην πυραμίδα με τους κινδύνους όσον αφορά τον αφανισμό της ανθρωπότητας στην πρώτη θέση είναι η τεχνητή νοημοσύνη και δεύτερος έρχεται ο πυρηνικός πόλεμος.Οποτε  οτι αφορά την τεχνητή χρίζει ενδιαφέροντος και προσοχής.

Πώς μπορεί να είναι κάτι στην πρώτη θέση όταν δεν υπάρχει???

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 λεπτά πριν, AtiX είπε

Πώς μπορεί να είναι κάτι στην πρώτη θέση όταν δεν υπάρχει???

Υπάρχει εδώ και αρκετά χρόνια και εξελίσσεται με ραγδαίους ρυθμούς.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

6 λεπτά πριν, vortex365 είπε

Υπάρχει εδώ και αρκετά χρόνια και εξελίσσεται με ραγδαίους ρυθμούς.

Υπάρχει μηχανή ή έστω πρόγραμμα που να έχει γνώση της ύπαρξη της/του και της αυτοσυντήρησης???

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 ώρα πριν, AtiX είπε

Υπάρχει μηχανή ή έστω πρόγραμμα που να έχει γνώση της ύπαρξη της/του και της αυτοσυντήρησης???

 

Σε ένα πολύ αρχικό στάδιο ναι, έχει επιτευχθεί αλλά μέχρι στιγμής είναι καθαρά θέμα ανθρώπινου προγραμματισμού και σε καμία περίπτωση δεν μπορούμε να μιλήσουμε για συνείδηση και αυτογνωσία. Το ζητούμενο είναι να διαμορφωθεί η συνείδηση της ΤΝ με αναδυόμενη συμπεριφορά μέσω αυτόματης μάθησης πρόσληψης και μνήμης εμπειριών, όπως δηλαδή γίνεται με τον άνθρωπο.

Το πρόβλημα είναι ότι ο άνθρωπος μπορεί να κατανοήσει την έννοια της ποιότητος άμεσα ενώ η μηχανή βασίζεται σε μετρήσεις και δεν μπορεί να δουλέψει με τον ίδιο τρόπο. Π.χ. εάν δείξεις σε ένα παιδί μια πεταλούδα και του πεις "αυτό είναι πεταλούδα" εάν το παιδί δει μια εικόνα πεταλούδας σε ένα βιβλίο θα καταλάβει αμέσως ότι αυτό είναι ομοίωμα πεταλούδας σε ένα βιβλίο. Αντίθετα εάν κάνεις το ίδιο πράγμα σε μια σημερινή Τ.Ν. αυτό που θα καταλάβει είναι ότι υπάρχει μια πεταλούδα στο βιβλίο! Δεν μπορεί να δουλέψει η Τ.Ν. με τον ίδιο τρόπο που σκέπτεται ο άνθρωπος. Αυτό προσπαθούν να το αλλάξουν με τα νευρωνικά δίκτυα και από ότι λένε προχωράνε. Προσωπικά πιστεύω ότι κάποια στιγμή θα το πετύχουν. Και αυτό είναι που τρομάζει πολλούς.  Μια μηχανή που σκέπτεται ή μάλλον υπολογίζει καλύτερα από τον άνθρωπο αλλά δεν έχει καμία αίσθηση και συναίσθηση. 

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

7 λεπτά πριν, Sabeas είπε

η κατανοηση ειναι ανθρωπινο construct, δεν υπαρχει ΚΑΝΕΝΑ μοντελο που να κατανοει. Ταξινομει, ομαδοποιει, κανει χιλοα δυο αλλα απτα πραγματα, αλλα δεν καταλαβαινει. Στο συγκεκριμενο χαζουλικο παραδειγμα ενα μοντελο υπολογιστικης ορασης θα ταξινομησει αυτο που καταγραφει η καμερα ως πεταλουδα, και πολυ σωστα θα κανει. Δεν υπαρχει κανενα expectation να... καταλαβει, αυτα τα λενε σε κατι μπλογκ ρομαντικοψεκασμενα που ακουνε τεχνητη νοημοσυνη και οργιαζει η φαντασια. 

 

Αυτό ακριβώς σου λέω κι εγώ! Η κατανόηση κάτι άλλου προϋποθέτει την κατανόηση κατ' αρχήν της δικής σου ύπαρξης, την αυτογνωσία. Οι επιστήμονες πιστεύουν ότι οι μηχανές θα μπορέσουν να έχουν αυτογνωσία και κατανόηση όταν φτάσουν σε μια συγκεκριμένη υπολογιστική ισχύ. Μένει να δούμε αν έχουν δίκιο.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
7 ώρες πριν, Eloy είπε

 

Δεν πάει έτσι... Εξαρτάται τι δικλείδες ασφάλειας και τι περιορισμούς θα θέτει ο άνθρωπος-κατασκευαστής ανα περίπτωση... Δες πχ. τους 3 νόμους της ρομποτικής του Ασιμωφ

  1. Το ρομπότ ( ή η ΑΙ) δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον
  2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
  3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο

 

Ρε θα τρελαθούμε τελείως σε αυτή την χώρα...

Ποιοι «3 νόμοι της Ρομποτικής» και κουραφέξαλα;

Τρεις προτάσεις που γράφτηκαν μέσα σε ένα παραμύθι είναι, τίποτα περισσότερο τίποτα λιγότερο. Ούτε νόμοι, ούτε τίποτα.

Αυτά τα 3 για να γίνουν προγραμματιστικός κώδικας (γιατί νόμοι δεν θα γίνουν ποτέ), κάποιοι (πολλοί) άνθρωποι με πολλές γνώσεις πρέπει να κάτσουν να τα γράψουν και να καταφέρουν να τα τεστάρουν επιτυχώς.

Και φυσικά η οποιαδήποτε ΤΝ, θα φτάσει κάποια στιγμή σε επίπεδο όπου θα μπορεί να γράφει και να διαγράφει τον κώδικα της, μόνη της, με βάση κριτήρια που θα έχει αναπτύξει η ίδια. Και οποιεσδήποτε ανθρώπινες δικλείδες ασφαλείας θα πάνε συνοπτικά «άκλαυτες».

Όσοι ονειρεύεστε τους «3 νόμους της Ρομποτικής» και τον έλέγχο των Ρομπότ μέσω αυτών είστε πάρα πολύ βαθιά νυχτωμένοι.

Επεξ/σία από Aurumnus
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
2 ώρες πριν, Aurumnus είπε

Ρε θα τρελαθούμε τελείως σε αυτή την χώρα...

Ποιοι «3 νόμοι της Ρομποτικής» και κουραφέξαλα;

Τρεις προτάσεις που γράφτηκαν μέσα σε ένα παραμύθι είναι, τίποτα περισσότερο τίποτα λιγότερο. Ούτε νόμοι, ούτε τίποτα.

Αυτά τα 3 για να γίνουν προγραμματιστικός κώδικας (γιατί νόμοι δεν θα γίνουν ποτέ), κάποιοι (πολλοί) άνθρωποι με πολλές γνώσεις πρέπει να κάτσουν να τα γράψουν και να καταφέρουν να τα τεστάρουν επιτυχώς.

Και φυσικά η οποιαδήποτε ΤΝ, θα φτάσει κάποια στιγμή σε επίπεδο όπου θα μπορεί να γράφει και να διαγράφει τον κώδικα της, μόνη της, με βάση κριτήρια που θα έχει αναπτύξει η ίδια. Και οποιεσδήποτε ανθρώπινες δικλείδες ασφαλείας θα πάνε συνοπτικά «άκλαυτες».

Όσοι ονειρεύεστε τους «3 νόμους της Ρομποτικής» και τον έλέγχο των Ρομπότ μέσω αυτών είστε πάρα πολύ βαθιά νυχτωμένοι.

Δηλαδή η ΤΝ δεν θα χρειαστει να της δώσει κάποιος άνθρωπος την ικανότητα να αυτοπρογραμματίζεται ? Οι αρχικοί προγραμματιστές της δεν θα ξέρουν απο πιο σημείο και μετά τα πράγματα θα μπορούν να γίνουν απρόβλεπτα ?  Ξέρεις, η ΑΙ δεν θα αποκτήσει ικανότητα αυτοπρογραμματισμού λόγω ενός βραχυκυκλώματος κατα την διάρκεια μιας καταιγίδας, όπως στις ταινίες...

Επεξ/σία από Eloy
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...