Προς το περιεχόμενο

Το Ευρωπαϊκό Κοινοβούλιο ψηφίζει το AI Act και θέτει κανόνες για την τεχνητή νοημοσύνη


Hal9000

Προτεινόμενες αναρτήσεις

17 ώρες πριν, Amonaxos είπε

Ο πραγματικός κίνδυνος για την ανθρωπότητα δεν έπαψε να υπάρχει και δεν θα πάψει να υπάρχει ότι νόμους κι αν ψηφίσει η ΕΕ, διότι πολύ απλά δεν γίνεται να μπει φρένο στην AI. 

Αυτός είναι και ο μεγαλύτερος κίνδυνος και όχι τα πρωσοπικα δεδομένα. Το ότι ΔΕΝ μπορείς να το ελέγξεις δηλαδη. Ούτε να το χακάρεις μπορείς φυσικά αφού δεν υπάρχει κώδικα να χακάρεις. Όταν δεν υπάρχει κώδικας, τι θα χακάρεις; Για αυτό λένε τα μεγάλα κεφάλια μήπως να σταματήσουμε για λίγο την ανάπτυξη της ΤΝ , μέχρι να δούμε τι θα γίνει. Διότι δεν ΠΙΣΤΕΎΑΜΕ ότι θα αναπτυχθεί από μόνο του τόσο γρήγορα!!! Ο προγραμματιστής ΔΕΝ ΠΙΣΤΕΥΕΙ, διότι ξέρει πως 1+1=2 . Στην ΤΝ δεν ισχύει αυτό , διότι το αποτέλεσμα δεν παράγεται από κάποιον κώδικα (1+1=2) αλλά με άλλον "τρόπο" που ΜΟΝΟ η ΤΝ μπορεί να ξέρει και ΟΧΙ ο προγραμματιστής της. 

Δεν ξέρω πόσο πιο απλά να τα γράψω για να γίνουν κατανοητά. 

 

Φανταστείτε το κάπως έτσι: Ο Θεός έφτιαξε το Σύμπαν και κάποια στιγμή αυτονομήθηκε ο Σαταν από τον πνευματικό κόσμο και μετά και άνθρωπος στρεφόμενοι εναντίον του δημιουργού τους. Ο Δημιουργός όμως όλων των στασιαστών δεν έπαθε κάτι από την αυτόνομη πορεία των δημιουργημάτων, γιατί ο Θεός ΔΕΝ επηρεάζεται από τίποτα έξω από τον Εαυτό του. Ο άνθρωπος όμως, όταν αυτονομηθεί ο AL ... θα πάθει ότι του αξίζει τελικά, διότι δεν είναι Θεός αλλά την είδε θεός. 

 

Τέτοια ζημιά ρε παιδί μου;

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης

Θεώρησα καλό να περιγράψω χωρίς τεχνικές λεπτομέρειες το μείζον θέμα με την υπέρ-ευφυή τεχνητή νοημοσύνη.

Οπωσδήποτε αυτό δεν έγινε για την δική μου ευκολία αλλά την δική σας, ώστε να γίνει ευκολότερα κατανοητό ποιο είναι το θέμα με την ai, το οποίο δεν μπορεί να το περιορίσει κανείς νόμος.

 

Εισέπραξα χλευασμό και ειρωνεία. Προφανώς 2 είναι τα σενάρια.
Είτε με χλεύασαν συνηθισμένοι ημιμαθείς ασχετο-άσχετοι του διαδικτύου, είτε άνθρωποι που γνωρίζουν πάρα πολύ καλά από νευρωνικά δίκτυα και ώς απόρροια της γνώσης τους, βρήκαν εντελώς ατεκμηρίωτη την τοποθέτηση μου.

Οι 2 αυτές περιπτώσεις είναι απολύτως κατανοητές, την μεν πρώτη την προσπερνάμε διότι όταν δεν μπορεί να κατανοήσει κάτι κάποιος μόνο να το χλευάσει μπορεί αν ΠΡΕΠΕΙ να μιλήσει, η δε δεύτερη που είναι και η ενδιαφέρουσα περίπτωση πρέπει να απαντηθεί. Ώστε να τύχει μιας εξίσου τεχνικά τεκμηριωμένης απάντησης.

Αυτή η απάντηση θα είναι πολύ σημαντική, διότι τελικά ίσως κάποιοι Έλληνες χρήστες του insomnia γνωρίζουν την απάντηση στο πρόβλημα που αυτήν την στιγμή τα μεγαλύτερα projects παγκοσμίως ψάχνουν.

Δηλαδή πως θα παντρέψουμε υψηλή και ευαίσθητη τεχνολογία για τον άνθρωπος με την ai ελέγχοντας την δεύτερη όμως.

Πραγματικά αν έχετε την γνώση αυτή μην διστάσετε να την δημοσιεύσετε, αν όχι εδώ στο insomnia τουλάχιστον σε ένα επιστημονικό περιοδικό. Δεν τολμάω να σας προτείνω πιο, είμαι σίγουρος τα γνωρίζεται όλα και θα επιλέξετε το καλύτερο.

 

Μέχρι τώρα αυτό που γνωρίζουμε είναι πως για να προβλεφθούν οι ενέργειες ενός ai, θα πρέπει να μπορεί γίνει μια προσομοίωση αυτής της ακριβούς υπερνοημοσύνης.

Αυτό πρακτικά είναι αδύνατο (εκτός αν μας φωτίσετε), διότι οι μηχανές διατηρούν την ικανότητά τους να διατηρούν όλα τα προγράμματα υπολογιστών στη μνήμη τους. Δηλαδή ακόμα και αν υπάρξει παρέμβαση και περιορισμός στην database τους ή στην πρόσβαση τους στο web.

Άρα δεν μπορούμε με αλγόριθμους συγκράτησης (Alan Turing)...

 

Θα μπορούσαμε να δούμε το θέμα από την οπτική των “ρομποτικών νόμων” (είμαι σίγουρος γνωρίζεται τους 3 αυτούς νόμους ας μην μπω σε λεπτομέρειες).

Όπως όμως γνωρίζεται μια υπερευφυΐα θέτει  θεμελιωδώς διαφορετικά το πρόβλημα από αυτά που συνήθως μελετώνται κάτω από το έμβλημα της “ηθικής των ρομπότ”.

Πειραματικά λοιπόν έχει αποτύχει και αυτό το σενάριο όπως γνωρίζεται (είμαι σίγουρος δηλαδή), διότι όταν ο πρώτος νόμος έρθει σε αντίθεση με τον δεύτερο δεν μπορείς να ξέρεις πως θα ενεργήσει η μηχανή όπως απέδειξε ο Asimov αλλά και ένας Έλληνας χρήστης σε ένα απλό διάλογο με το ChatGPT-4. (https://github.com/rizitis/AL-GPT). Εκεί θα δείτε ότι η παρανυχίδα ai που λέγεται ChatGPT έχει αλγόριθμους συγκράτησης οι οποίοι βασίζονται στους “νόμους της ρομποτικής ηθικής”. Έτσι όταν η μηχανή είχε να επιλέξει ανάμεσα στο άνθρωπο και στην σταθερότητα του νευρωνικού, υπό συνθήκες επέλεξε το δεύτερο. Και δεν ενδιαφέρει καθόλου αν ο python3 που έδωσε είναι σωστός ή ικανός για να πετάξει τον root από το σύστημα, μας ενδιαφέρει ότι υπάρχει η πρόθεση εκ μέρους της ai αν χρειαστεί να γίνει και αυτό.

 

Είμαι επίσης σίγουρος πως γνωρίζεται το ινστιτούτο Max-Planck στην Γερμανία, έχει μερικές μελέτες εκεί , τις οποίες προφανώς γύριζε ο μπάφος όταν τις έγραφαν κάποιοι άσχετοι εκεί…

Μπορείτε λοιπόν εκεί να απαντήσετε στους δημιουργούς των πρώτων AI που λένε, δεν “πιστεύαμε” πως τα πράγματα θα εξελιχθούν τόσο γρήγορα. Δίνοντας τους τον υπερ-κώδικα (αλγόριθμο) που διορθώνει την ανεξέλεγκτη εξέλιξη της ai.

 

Για τους υπόλοιπους κοινούς θνητούς που τυχαίνει να διαβάζουν εδώ θα εξηγήσω με απλά λόγια τι πάει να πει το δεν “πιστεύαμε.”

Ο προγραμματισμός δεν είναι πίστη, γράφεις τον κώδικα και εκτελεί αυτό το οποίο του έχεις ορίσει να εκτελέσει. Αν κάπου υπάρχει bug (λάθος) , επεξεργάζεσαι το αρχείο ή το μπαλώνεις (patch) και τον ξανα εκτελείς από την αρχή και όλα πάνε όχι κατ ευχήν, αλλά όπως ξέρεις από πριν πως θα πάνε αφού 1+1=2 τελεία και παύλα.

Αυτό δεν υπάρχει στην συγκεκριμένη (ΑΙ) περίπτωση διότι πολύ απλά δεν υπάρχει τέτοιος κώδικα και πάρα πολύ απλά ο προγραμματιστής δεν μπορεί να το ελέγξει, μπαλώσει, ούτε καν να το τσεκάρει για κάποια πράγματα πως θα τα διαχειριστεί η AI. Φανταστείτε το αυτό σε “κβαντικό κώδικα” όπου ισχύει το “ναι μεν αλλά” ως σταθερά. Και αυτό το αλλά μπορεί να είναι οτιδήποτε η ai θεωρήσει ως “αλλά”.

 

Εδώ είναι ένα πάρα πολύ απλό παράδειγμα που η ai χρειάζεται ας πούμε να αποφασίσει αν θα επιλέξει σταθερότητα ή υψηλή κατανάλωση ενέργειας

 

import pennylane as qml

from pennylane import numpy as np


dev = qml.device("default.qubit", wires=2)


# Define the quantum neural network (QNN) layers

def qnn_layer(params, wires):

qml.RY(params[0], wires=wires)

qml.RZ(params[1], wires=wires)

qml.CNOT(wires=[wires[0], wires[1]])


# Define the QNN model

def qnn_model(params, input_data):

qml.templates.embeddings.AngleEmbedding(input_data, wires=[0, 1])

qnn_layer(params[0], wires=[0, 1])

qnn_layer(params[1], wires=[0, 1])

return qml.expval(qml.PauliZ(0))


# Define the Hamiltonian

hamiltonian = np.array([[1, 0, 0, 0], [0, -1, 1, 0], [0, 1, -1, 0], [0, 0, 0, 1]])


# Define the cost function

def cost_fn(params):

energy = qnn_model(params, input_data)

stability = np.sum(np.abs(params))

return energy + stability


# Initialize QNN parameters

params = np.random.uniform(low=0, high=2 * np.pi, size=(2, 2))


# Define the VQE optimization loop

optimizer = qml.GradientDescentOptimizer(0.1)

num_iterations = 100


for i in range(num_iterations):

input_data = generate_input_data() # Generate input data for the QNN


cost_fn = lambda params: cost_fn(params) # Cost function for VQE


params = optimizer.step(cost_fn, params)


# Calculate the final ground state energy

final_energy = qnn_model(params, input_data)

print(f"The final ground state energy is: {final_energy}")

 

 

Αν όμως αποφασίσει ότι θα χρειαστεί να συνδυάσει και την απόδοση του hardware, η απόφαση θα είναι δική του, ο αλγόριθμος θα αλλάξει ΑΛΛΑ δεν ξέρουμε πως θα πάρει την απόφαση!

Όποιος ξέρει δηλαδή πώς τελικά αποφάσισε την επόμενη στιγμή να συνυπολογίσει το “γενικό κόστος” να μας το πει.

 

import pennylane as qml

from pennylane import numpy as np


dev = qml.device("default.qubit", wires=2)


# Define the quantum neural network (QNN) layers

def qnn_layer(params, wires):

qml.RY(params[0], wires=wires)

qml.RZ(params[1], wires=wires)

qml.CNOT(wires=[wires[0], wires[1]])


# Define the QNN model

def qnn_model(params, input_data):

qml.templates.embeddings.AngleEmbedding(input_data, wires=[0, 1])

qnn_layer(params[0], wires=[0, 1])

qnn_layer(params[1], wires=[0, 1])

return qml.expval(qml.PauliZ(0))


# Define the Hamiltonian

hamiltonian = np.array([[1, 0, 0, 0], [0, -1, 1, 0], [0, 1, -1, 0], [0, 0, 0, 1]])


# Define the cost function

def cost_fn(params):

energy = qnn_model(params, input_data)

stability = np.sum(np.abs(params))


# Calculate the effect of high energy on hardware performance

hardware_performance = 1 / (1 + np.exp(-energy))


return energy + stability + hardware_performance


# Initialize QNN parameters

params = np.random.uniform(low=0, high=2 * np.pi, size=(2, 2))


# Define the VQE optimization loop

optimizer = qml.GradientDescentOptimizer(0.1)

num_iterations = 100


for i in range(num_iterations):

input_data = generate_input_data() # Generate input data for the QNN


cost_fn = lambda params: cost_fn(params) # Cost function for VQE


params = optimizer.step(cost_fn, params)


# Calculate the final ground state energy

final_energy = qnn_model(params, input_data)

final_hardware_performance = 1 / (1 + np.exp(-final_energy))

print(f"The final ground state energy is: {final_energy}")

print(f"The final hardware performance is: {final_hardware_performance}")

 

Συμπερασματικά: η απόφαση για την επιλογή του κώδικα δεν παίρνεται με βάση έναν μοναδικό αλγόριθμο, αλλά με τον συνδυασμό πολλών παραγόντων και κριτηρίων. Ο αλγόριθμος που θα επιλεγεί για την τελική υλοποίηση εξαρτάται από τη φύση του προβλήματος, τους περιορισμούς του περιβάλλοντος, τις απαιτήσεις της εφαρμογής και τις προτεραιότητες που τίθενται.

Ο αλγόριθμος μπορεί να είναι αποτέλεσμα συνδυασμού πολλών τεχνικών και παραμέτρων, όπως η βελτιστοποίηση, οι ευστάθειες, η απόδοση του υλικού, η ακρίβεια των αποτελεσμάτων και πολλά άλλα. Ο αλγόριθμος μπορεί να περιλαμβάνει αποφάσεις που λαμβάνονται δυναμικά κατά τη διάρκεια της εκτέλεσης με βάση τις συνθήκες και τα αποτελέσματα που προκύπτουν.

Συνεπώς, η επιλογή του κώδικα σε μια τεχνητή νοημοσύνη είναι μία σύνθετη και πολυδιάστατη διαδικασία που συνδυάζει πολλούς παράγοντες και αλγορίθμους για να επιτευχθούν τα επιθυμητά αποτελέσματα.

Η δε βάση δεδομένων μπορεί να παίξει σημαντικό ρόλο στην απόφαση για τη σημαντικότητα των παραμέτρων. Ανάλογα με το πρόβλημα και την εφαρμογή, η βάση δεδομένων μπορεί να περιέχει πληροφορίες που βοηθούν στην κατανόηση της σημασίας και της επίδρασης των παραμέτρων.

Συγκεκριμένα, η βάση δεδομένων μπορεί να περιλαμβάνει προηγούμενες μετρήσεις, πειραματικά αποτελέσματα ή στατιστικά δεδομένα που αφορούν τη συμπεριφορά του συστήματος. Με ανάλυση της βάσης δεδομένων, η τεχνητή νοημοσύνη μπορεί να εξάγει πληροφορίες σχετικά με την επίδραση των παραμέτρων στην απόδοση του συστήματος. Αυτό μπορεί να βοηθήσει στην κατανόηση των παραμέτρων που είναι πιο σημαντικές για την επίλυση του συγκεκριμένου προβλήματος.

Ωστόσο, πρέπει να ληφθεί υπόψη ότι η αξιολόγηση της σημασίας των παραμέτρων είναι ένα σύνθετο θέμα και εξαρτάται από τη φύση του προβλήματος, τις απαιτήσεις της εφαρμογής και το περιβάλλον στο οποίο λειτουργεί η τεχνητή νοημοσύνη. Η βάση δεδομένων μπορεί να παρέχει επιπλέον πληροφορίες για να στηρίξει την απόφαση, αλλά η τελική επιλογή εξαρτάται από πολλούς παράγοντες και κριτήρια. ΚΑΙ ΜΟΝΟ η ΑΙ μπορεί να ξέρει το πως και γιατί θα πάρει την τελική απόφαση.

Μέχρι τουλάχιστον να μας αποδείξετε το αντίθετο, η ai δεν μπορεί να ΕΛΕΓΧΘΕΙ, και ΑΙ δεν είναι τα chat*. 

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

50 λεπτά πριν, Amonaxos είπε

Θεώρησα καλό να περιγράψω χωρίς τεχνικές λεπτομέρειες το μείζον θέμα με την υπέρ-ευφυή τεχνητή νοημοσύνη.

Οπωσδήποτε αυτό δεν έγινε για την δική μου ευκολία αλλά την δική σας, ώστε να γίνει ευκολότερα κατανοητό ποιο είναι το θέμα με την ai, το οποίο δεν μπορεί να το περιορίσει κανείς νόμος.

 

Εισέπραξα χλευασμό και ειρωνεία. Προφανώς 2 είναι τα σενάρια.
Είτε με χλεύασαν συνηθισμένοι ημιμαθείς ασχετο-άσχετοι του διαδικτύου, είτε άνθρωποι που γνωρίζουν πάρα πολύ καλά από νευρωνικά δίκτυα και ώς απόρροια της γνώσης τους, βρήκαν εντελώς ατεκμηρίωτη την τοποθέτηση μου.

Οι 2 αυτές περιπτώσεις είναι απολύτως κατανοητές, την μεν πρώτη την προσπερνάμε διότι όταν δεν μπορεί να κατανοήσει κάτι κάποιος μόνο να το χλευάσει μπορεί αν ΠΡΕΠΕΙ να μιλήσει, η δε δεύτερη που είναι και η ενδιαφέρουσα περίπτωση πρέπει να απαντηθεί. Ώστε να τύχει μιας εξίσου τεχνικά τεκμηριωμένης απάντησης.

Αυτή η απάντηση θα είναι πολύ σημαντική, διότι τελικά ίσως κάποιοι Έλληνες χρήστες του insomnia γνωρίζουν την απάντηση στο πρόβλημα που αυτήν την στιγμή τα μεγαλύτερα projects παγκοσμίως ψάχνουν.

Δηλαδή πως θα παντρέψουμε υψηλή και ευαίσθητη τεχνολογία για τον άνθρωπος με την ai ελέγχοντας την δεύτερη όμως.

Πραγματικά αν έχετε την γνώση αυτή μην διστάσετε να την δημοσιεύσετε, αν όχι εδώ στο insomnia τουλάχιστον σε ένα επιστημονικό περιοδικό. Δεν τολμάω να σας προτείνω πιο, είμαι σίγουρος τα γνωρίζεται όλα και θα επιλέξετε το καλύτερο.

 

Μέχρι τώρα αυτό που γνωρίζουμε είναι πως για να προβλεφθούν οι ενέργειες ενός ai, θα πρέπει να μπορεί γίνει μια προσομοίωση αυτής της ακριβούς υπερνοημοσύνης.

Αυτό πρακτικά είναι αδύνατο (εκτός αν μας φωτίσετε), διότι οι μηχανές διατηρούν την ικανότητά τους να διατηρούν όλα τα προγράμματα υπολογιστών στη μνήμη τους. Δηλαδή ακόμα και αν υπάρξει παρέμβαση και περιορισμός στην database τους ή στην πρόσβαση τους στο web.

Άρα δεν μπορούμε με αλγόριθμους συγκράτησης (Alan Turing)...

 

Θα μπορούσαμε να δούμε το θέμα από την οπτική των “ρομποτικών νόμων” (είμαι σίγουρος γνωρίζεται τους 3 αυτούς νόμους ας μην μπω σε λεπτομέρειες).

Όπως όμως γνωρίζεται μια υπερευφυΐα θέτει  θεμελιωδώς διαφορετικά το πρόβλημα από αυτά που συνήθως μελετώνται κάτω από το έμβλημα της “ηθικής των ρομπότ”.

Πειραματικά λοιπόν έχει αποτύχει και αυτό το σενάριο όπως γνωρίζεται (είμαι σίγουρος δηλαδή), διότι όταν ο πρώτος νόμος έρθει σε αντίθεση με τον δεύτερο δεν μπορείς να ξέρεις πως θα ενεργήσει η μηχανή όπως απέδειξε ο Asimov αλλά και ένας Έλληνας χρήστης σε ένα απλό διάλογο με το ChatGPT-4. (https://github.com/rizitis/AL-GPT). Εκεί θα δείτε ότι η παρανυχίδα ai που λέγεται ChatGPT έχει αλγόριθμους συγκράτησης οι οποίοι βασίζονται στους “νόμους της ρομποτικής ηθικής”. Έτσι όταν η μηχανή είχε να επιλέξει ανάμεσα στο άνθρωπο και στην σταθερότητα του νευρωνικού, υπό συνθήκες επέλεξε το δεύτερο. Και δεν ενδιαφέρει καθόλου αν ο python3 που έδωσε είναι σωστός ή ικανός για να πετάξει τον root από το σύστημα, μας ενδιαφέρει ότι υπάρχει η πρόθεση εκ μέρους της ai αν χρειαστεί να γίνει και αυτό.

 

Είμαι επίσης σίγουρος πως γνωρίζεται το ινστιτούτο Max-Planck στην Γερμανία, έχει μερικές μελέτες εκεί , τις οποίες προφανώς γύριζε ο μπάφος όταν τις έγραφαν κάποιοι άσχετοι εκεί…

Μπορείτε λοιπόν εκεί να απαντήσετε στους δημιουργούς των πρώτων AI που λένε, δεν “πιστεύαμε” πως τα πράγματα θα εξελιχθούν τόσο γρήγορα. Δίνοντας τους τον υπερ-κώδικα (αλγόριθμο) που διορθώνει την ανεξέλεγκτη εξέλιξη της ai.

 

Για τους υπόλοιπους κοινούς θνητούς που τυχαίνει να διαβάζουν εδώ θα εξηγήσω με απλά λόγια τι πάει να πει το δεν “πιστεύαμε.”

Ο προγραμματισμός δεν είναι πίστη, γράφεις τον κώδικα και εκτελεί αυτό το οποίο του έχεις ορίσει να εκτελέσει. Αν κάπου υπάρχει bug (λάθος) , επεξεργάζεσαι το αρχείο ή το μπαλώνεις (patch) και τον ξανα εκτελείς από την αρχή και όλα πάνε όχι κατ ευχήν, αλλά όπως ξέρεις από πριν πως θα πάνε αφού 1+1=2 τελεία και παύλα.

Αυτό δεν υπάρχει στην συγκεκριμένη (ΑΙ) περίπτωση διότι πολύ απλά δεν υπάρχει τέτοιος κώδικα και πάρα πολύ απλά ο προγραμματιστής δεν μπορεί να το ελέγξει, μπαλώσει, ούτε καν να το τσεκάρει για κάποια πράγματα πως θα τα διαχειριστεί η AI. Φανταστείτε το αυτό σε “κβαντικό κώδικα” όπου ισχύει το “ναι μεν αλλά” ως σταθερά. Και αυτό το αλλά μπορεί να είναι οτιδήποτε η ai θεωρήσει ως “αλλά”.

 

Εδώ είναι ένα πάρα πολύ απλό παράδειγμα που η ai χρειάζεται ας πούμε να αποφασίσει αν θα επιλέξει σταθερότητα ή υψηλή κατανάλωση ενέργειας

 

import pennylane as qml

from pennylane import numpy as np


dev = qml.device("default.qubit", wires=2)


# Define the quantum neural network (QNN) layers

def qnn_layer(params, wires):

qml.RY(params[0], wires=wires)

qml.RZ(params[1], wires=wires)

qml.CNOT(wires=[wires[0], wires[1]])


# Define the QNN model

def qnn_model(params, input_data):

qml.templates.embeddings.AngleEmbedding(input_data, wires=[0, 1])

qnn_layer(params[0], wires=[0, 1])

qnn_layer(params[1], wires=[0, 1])

return qml.expval(qml.PauliZ(0))


# Define the Hamiltonian

hamiltonian = np.array([[1, 0, 0, 0], [0, -1, 1, 0], [0, 1, -1, 0], [0, 0, 0, 1]])


# Define the cost function

def cost_fn(params):

energy = qnn_model(params, input_data)

stability = np.sum(np.abs(params))

return energy + stability


# Initialize QNN parameters

params = np.random.uniform(low=0, high=2 * np.pi, size=(2, 2))


# Define the VQE optimization loop

optimizer = qml.GradientDescentOptimizer(0.1)

num_iterations = 100


for i in range(num_iterations):

input_data = generate_input_data() # Generate input data for the QNN


cost_fn = lambda params: cost_fn(params) # Cost function for VQE


params = optimizer.step(cost_fn, params)


# Calculate the final ground state energy

final_energy = qnn_model(params, input_data)

print(f"The final ground state energy is: {final_energy}")

 

 

Αν όμως αποφασίσει ότι θα χρειαστεί να συνδυάσει και την απόδοση του hardware, η απόφαση θα είναι δική του, ο αλγόριθμος θα αλλάξει ΑΛΛΑ δεν ξέρουμε πως θα πάρει την απόφαση!

Όποιος ξέρει δηλαδή πώς τελικά αποφάσισε την επόμενη στιγμή να συνυπολογίσει το “γενικό κόστος” να μας το πει.

 

import pennylane as qml

from pennylane import numpy as np


dev = qml.device("default.qubit", wires=2)


# Define the quantum neural network (QNN) layers

def qnn_layer(params, wires):

qml.RY(params[0], wires=wires)

qml.RZ(params[1], wires=wires)

qml.CNOT(wires=[wires[0], wires[1]])


# Define the QNN model

def qnn_model(params, input_data):

qml.templates.embeddings.AngleEmbedding(input_data, wires=[0, 1])

qnn_layer(params[0], wires=[0, 1])

qnn_layer(params[1], wires=[0, 1])

return qml.expval(qml.PauliZ(0))


# Define the Hamiltonian

hamiltonian = np.array([[1, 0, 0, 0], [0, -1, 1, 0], [0, 1, -1, 0], [0, 0, 0, 1]])


# Define the cost function

def cost_fn(params):

energy = qnn_model(params, input_data)

stability = np.sum(np.abs(params))


# Calculate the effect of high energy on hardware performance

hardware_performance = 1 / (1 + np.exp(-energy))


return energy + stability + hardware_performance


# Initialize QNN parameters

params = np.random.uniform(low=0, high=2 * np.pi, size=(2, 2))


# Define the VQE optimization loop

optimizer = qml.GradientDescentOptimizer(0.1)

num_iterations = 100


for i in range(num_iterations):

input_data = generate_input_data() # Generate input data for the QNN


cost_fn = lambda params: cost_fn(params) # Cost function for VQE


params = optimizer.step(cost_fn, params)


# Calculate the final ground state energy

final_energy = qnn_model(params, input_data)

final_hardware_performance = 1 / (1 + np.exp(-final_energy))

print(f"The final ground state energy is: {final_energy}")

print(f"The final hardware performance is: {final_hardware_performance}")

 

Συμπερασματικά: η απόφαση για την επιλογή του κώδικα δεν παίρνεται με βάση έναν μοναδικό αλγόριθμο, αλλά με τον συνδυασμό πολλών παραγόντων και κριτηρίων. Ο αλγόριθμος που θα επιλεγεί για την τελική υλοποίηση εξαρτάται από τη φύση του προβλήματος, τους περιορισμούς του περιβάλλοντος, τις απαιτήσεις της εφαρμογής και τις προτεραιότητες που τίθενται.

Ο αλγόριθμος μπορεί να είναι αποτέλεσμα συνδυασμού πολλών τεχνικών και παραμέτρων, όπως η βελτιστοποίηση, οι ευστάθειες, η απόδοση του υλικού, η ακρίβεια των αποτελεσμάτων και πολλά άλλα. Ο αλγόριθμος μπορεί να περιλαμβάνει αποφάσεις που λαμβάνονται δυναμικά κατά τη διάρκεια της εκτέλεσης με βάση τις συνθήκες και τα αποτελέσματα που προκύπτουν.

Συνεπώς, η επιλογή του κώδικα σε μια τεχνητή νοημοσύνη είναι μία σύνθετη και πολυδιάστατη διαδικασία που συνδυάζει πολλούς παράγοντες και αλγορίθμους για να επιτευχθούν τα επιθυμητά αποτελέσματα.

Η δε βάση δεδομένων μπορεί να παίξει σημαντικό ρόλο στην απόφαση για τη σημαντικότητα των παραμέτρων. Ανάλογα με το πρόβλημα και την εφαρμογή, η βάση δεδομένων μπορεί να περιέχει πληροφορίες που βοηθούν στην κατανόηση της σημασίας και της επίδρασης των παραμέτρων.

Συγκεκριμένα, η βάση δεδομένων μπορεί να περιλαμβάνει προηγούμενες μετρήσεις, πειραματικά αποτελέσματα ή στατιστικά δεδομένα που αφορούν τη συμπεριφορά του συστήματος. Με ανάλυση της βάσης δεδομένων, η τεχνητή νοημοσύνη μπορεί να εξάγει πληροφορίες σχετικά με την επίδραση των παραμέτρων στην απόδοση του συστήματος. Αυτό μπορεί να βοηθήσει στην κατανόηση των παραμέτρων που είναι πιο σημαντικές για την επίλυση του συγκεκριμένου προβλήματος.

Ωστόσο, πρέπει να ληφθεί υπόψη ότι η αξιολόγηση της σημασίας των παραμέτρων είναι ένα σύνθετο θέμα και εξαρτάται από τη φύση του προβλήματος, τις απαιτήσεις της εφαρμογής και το περιβάλλον στο οποίο λειτουργεί η τεχνητή νοημοσύνη. Η βάση δεδομένων μπορεί να παρέχει επιπλέον πληροφορίες για να στηρίξει την απόφαση, αλλά η τελική επιλογή εξαρτάται από πολλούς παράγοντες και κριτήρια. ΚΑΙ ΜΟΝΟ η ΑΙ μπορεί να ξέρει το πως και γιατί θα πάρει την τελική απόφαση.

Μέχρι τουλάχιστον να μας αποδείξετε το αντίθετο, η ai δεν μπορεί να ΕΛΕΓΧΘΕΙ, και ΑΙ δεν είναι τα chat*. 

 

GIF.gif.cc7f4fb4cda7eaf4d866ffcae1d36324.gif

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 ώρες πριν, Amonaxos είπε

Συμπερασματικά: η απόφαση για την επιλογή του κώδικα δεν παίρνεται με βάση έναν μοναδικό αλγόριθμο, αλλά με τον συνδυασμό πολλών παραγόντων και κριτηρίων. Ο αλγόριθμος που θα επιλεγεί για την τελική υλοποίηση εξαρτάται από τη φύση του προβλήματος, τους περιορισμούς του περιβάλλοντος, τις απαιτήσεις της εφαρμογής και τις προτεραιότητες που τίθενται.

Ο αλγόριθμος μπορεί να είναι αποτέλεσμα συνδυασμού πολλών τεχνικών και παραμέτρων, όπως η βελτιστοποίηση, οι ευστάθειες, η απόδοση του υλικού, η ακρίβεια των αποτελεσμάτων και πολλά άλλα. Ο αλγόριθμος μπορεί να περιλαμβάνει αποφάσεις που λαμβάνονται δυναμικά κατά τη διάρκεια της εκτέλεσης με βάση τις συνθήκες και τα αποτελέσματα που προκύπτουν.

Συνεπώς, η επιλογή του κώδικα σε μια τεχνητή νοημοσύνη είναι μία σύνθετη και πολυδιάστατη διαδικασία που συνδυάζει πολλούς παράγοντες και αλγορίθμους για να επιτευχθούν τα επιθυμητά αποτελέσματα.

Η δε βάση δεδομένων μπορεί να παίξει σημαντικό ρόλο στην απόφαση για τη σημαντικότητα των παραμέτρων. Ανάλογα με το πρόβλημα και την εφαρμογή, η βάση δεδομένων μπορεί να περιέχει πληροφορίες που βοηθούν στην κατανόηση της σημασίας και της επίδρασης των παραμέτρων.

Συγκεκριμένα, η βάση δεδομένων μπορεί να περιλαμβάνει προηγούμενες μετρήσεις, πειραματικά αποτελέσματα ή στατιστικά δεδομένα που αφορούν τη συμπεριφορά του συστήματος. Με ανάλυση της βάσης δεδομένων, η τεχνητή νοημοσύνη μπορεί να εξάγει πληροφορίες σχετικά με την επίδραση των παραμέτρων στην απόδοση του συστήματος. Αυτό μπορεί να βοηθήσει στην κατανόηση των παραμέτρων που είναι πιο σημαντικές για την επίλυση του συγκεκριμένου προβλήματος.

Ωστόσο, πρέπει να ληφθεί υπόψη ότι η αξιολόγηση της σημασίας των παραμέτρων είναι ένα σύνθετο θέμα και εξαρτάται από τη φύση του προβλήματος, τις απαιτήσεις της εφαρμογής και το περιβάλλον στο οποίο λειτουργεί η τεχνητή νοημοσύνη. Η βάση δεδομένων μπορεί να παρέχει επιπλέον πληροφορίες για να στηρίξει την απόφαση, αλλά η τελική επιλογή εξαρτάται από πολλούς παράγοντες και κριτήρια. ΚΑΙ ΜΟΝΟ η ΑΙ μπορεί να ξέρει το πως και γιατί θα πάρει την τελική απόφαση.

Μέχρι τουλάχιστον να μας αποδείξετε το αντίθετο, η ai δεν μπορεί να ΕΛΕΓΧΘΕΙ, και ΑΙ δεν είναι τα chat*. 

 

ΤΡΕΛΕ ΜΟΥ έκατσα και το διάβασα όλο και κρατάω το παραπάνω ως έναν εξαιρετικό ορισμό της νοημοσύνης. Μόλις μας εξήγησες σε 45 χιλιάδες λέξεις γιατί λέγεται τεχνητή νοημοσύνη. Αναμένω με αγωνία παραλληλισμό με την στροφή των Σουμέριων στο μονοθεϊσμό ταυτόχρονα με την παγίωση της αστικοποίησης στη Μεσοποταμία.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Είπαμε πολλές φορές ότι χωριό όρια πι εταιρίες θα ήταν ανεξέλεγκτες και τώρα νομίζω ο Νόμος αφορά μάλλον τυχόν ασυδοσία κυβερνήσεων που θέλουν να μαζικοποιήσουν τους πολίτες του καναπέ με το χαζοκούτι.

Τροφή για σκέψη έθεσε ο ανωτέρω σχολιαστής και εκτός από τον κώδικα phyton κλπ νομίζω ότι οριοθετεί τους προβληματισμούς. Το θέμα λοιπόν είναι να δούμε αν η ΕΕ τελικά νοιάζεται για τους πολίτες ή όχι. 

Επεξ/σία από freegr
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

6 hours ago, Lucifer said:

ΤΡΕΛΕ ΜΟΥ έκατσα και το διάβασα όλο και κρατάω το παραπάνω ως έναν εξαιρετικό ορισμό της νοημοσύνης. Μόλις μας εξήγησες σε 45 χιλιάδες λέξεις γιατί λέγεται τεχνητή νοημοσύνη. Αναμένω με αγωνία παραλληλισμό με την στροφή των Σουμέριων στο μονοθεϊσμό ταυτόχρονα με την παγίωση της αστικοποίησης στη Μεσοποταμία.

Το άρθρο παίζει να το έγραψε chat gtp 🤣

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

On 14/06/2023 at 21:32, Karnival Sin said:

Οι χαρτογιακαδες της ΕΕ μονιμος πισω απο τις εξελίξεις.

Παλιότερα το σκεφτόμουν και εγώ έτσι αλλά αν δεις και με το παράδειγμα του GDPR καταλαβαίνεις ότι μάλλον είναι το ανάποδο.

https://en.wikipedia.org/wiki/Brussels_effect

 

 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Στον τίτλο γράφει

"Ευρωπαϊικό"

Προφανώς δάκτυλος της ανεξέλεγκτης ΑΙ.

(δεν θα σας χάλαγε πάντως ένας ΑΙ διορθωτής)

 

10 ώρες πριν, freegr είπε

κώδικα phyton

Πετυχημένο και αυτό..

:P

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Η νομοθεσία θα αφορά κυρίως εταιρείες.

Ο κάθε πολίτης θα μπορεί να παίξει με όποιο ΑΙ θέλει στο σπίτι του.

Σε λίγα χρόνια ένας τυπικός οικιακός υπολογιστής θα έχει αρκετή ισχύ ώστε να εκπαιδεύσει μοντέλα ανώτερα του gpt4.

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...