Αναζήτηση στην κοινότητα
Εμφάνιση αποτελεσμάτων για τις ετικέτες 'τεχνητή νοημοσύνη'.
419 αποτελέσματα
-
Η Deloitte θα επιστρέψει μέρος του ποσού που έλαβε για έκθεση αξίας 440.000 δολαρίων η οποία περιείχε πολλαπλά σφάλματα, αφού παραδέχτηκε ότι χρησιμοποίησε τεχνητή νοημοσύνη για τη δημιουργία της. Η συμβουλευτική εταιρεία αναγνώρισε τη χρήση generative AI στην εκπόνηση της μελέτης, η οποία ανατέθηκε από το Υπουργείο Απασχόλησης και Εργασιακών Σχέσεων της Αυστραλίας. Το Υπουργείο επιβεβαίωσε ότι η Deloitte θα επιστρέψει χρήματα ισοδύναμα με την τελική δόση του συμβολαίου, η οποία θα γίνει δημόσια μετά την ολοκλήρωση της συναλλαγής. Γερουσιαστής του Εργατικού Κόμματος κατηγόρησε την εταιρεία ότι έχει "πρόβλημα ανθρώπινης νοημοσύνης". Η Deloitte είχε αναλάβει τον Δεκέμβριο του 2024 την αξιολόγηση του πλαισίου στοχευμένης συμμόρφωσης και του συστήματος πληροφορικής, που χρησιμοποιείται για την αυτοματοποίηση ποινών στο σύστημα κοινωνικής πρόνοιας όταν οι αναζητούντες εργασία δεν πληρούν τις αμοιβαίες τους υποχρεώσεις. Όπως αναφέρει ο Guardian, η Deloitte ανέλαβε τον Δεκέμβριο του 2024 να αξιολογήσει το πληροφοριακό σύστημα που χρησιμοποιείται για την επιβολή κυρώσεων σε ανέργους οι οποίοι δεν τηρούν τις υποχρεώσεις τους στα προγράμματα απασχόλησης. Η αξιολόγηση αποκάλυψε σημαντικά προβλήματα, μεταξύ των οποίων «έλλειψη διαφάνειας» στη σύνδεση του συστήματος με τη νομοθεσία που το διέπει και «τεχνικές δυσλειτουργίες». Σύμφωνα με την έκθεση, το σύστημα φαινόταν να λειτουργεί «υπό την τιμωρητική παραδοχή ότι οι συμμετέχοντες δεν συμμορφώνονται». Η έκθεση επαναδημοσιεύθηκε στην ιστοσελίδα του Υπουργείου την Παρασκευή, αφού η Australian Financial Review (AFR) τον Αύγουστο ανέφερε ότι εντοπίστηκαν πολλαπλά σφάλματα, συμπεριλαμβανομένων ανύπαρκτων αναφορών και παραπομπών. Ο ακαδημαϊκός από το Πανεπιστήμιο του Σίδνεϊ, Δρ Christopher Rudge, που πρώτος εντόπισε τα σφάλματα, δήλωσε ότι η έκθεση περιείχε "παραισθήσεις" όπου τα μοντέλα τεχνητής νοημοσύνης μπορεί να συμπληρώνουν κενά, να παρερμηνεύουν δεδομένα ή να προσπαθούν να μαντέψουν απαντήσεις. "Αντί να αντικαταστήσουν μία παραίσθηση με μία νέα 'πραγματική' αναφορά, αντικατέστησαν τις ψεύτικες αναφορές και στη νέα έκδοση υπάρχουν πέντε, έξι, επτά ή οκτώ στη θέση τους", δήλωσε. "Κάτι τέτοιο υποδηλώνει ότι ο αρχικός ισχυρισμός στο κυρίως σώμα της έκθεσης δεν βασιζόταν σε κάποια συγκεκριμένη πηγή." Η ενημερωμένη έκδοση σημείωνε "έναν μικρό αριθμό διορθώσεων σε αναφορές και υποσημειώσεις", αλλά το Υπουργείο ανέφερε ότι δεν υπήρξαν αλλαγές στις συστάσεις της έκθεσης. "Η Deloitte διεξήγαγε την ανεξάρτητη αξιολόγηση και επιβεβαίωσε ότι κάποιες υποσημειώσεις και αναφορές ήταν λανθασμένες", δήλωσε εκπρόσωπος του Υπουργείου. "Η ουσία της ανεξάρτητης αξιολόγησης διατηρείται και δεν υπάρχουν αλλαγές στις συστάσεις." Στην ενημερωμένη έκδοση, η Deloitte πρόσθεσε αναφορά στη χρήση generative AI στο παράρτημα. Αναφέρει ότι ένα μέρος της έκθεσης "περιελάμβανε τη χρήση ενός εργαλείου που βασίζεται σε μεγάλο γλωσσικό μοντέλο τεχνητής νοημοσύνης (Azure OpenAI GPT-4o) με άδεια από το Υπουργείο και φιλοξενημένο στο Azure tenancy του Υπουργείου." Η Deloitte δεν δήλωσε ότι η τεχνητή νοημοσύνη ήταν ο λόγος πίσω από τα σφάλματα στην αρχική της έκθεση και υποστήριξε τα αρχικά ευρήματα. "Οι ενημερώσεις που έγιναν δεν επηρεάζουν με κανέναν τρόπο το ουσιαστικό περιεχόμενο, τα ευρήματα και τις συστάσεις στην έκθεση", αναφέρει στην τροποποιημένη έκδοση. Εκπρόσωπος της Deloitte δήλωσε ότι "το θέμα έχει επιλυθεί απευθείας με τον πελάτη". Ο Rudge δήλωσε ότι, παρά την κριτική του, διστάζει να πει ότι ολόκληρη η έκθεση θα πρέπει να "θεωρηθεί ως παράνομη", επειδή τα συμπεράσματα συμφωνούν με άλλα ευρέως διαδεδομένα στοιχεία. Η γερουσιαστής του Εργατικού Κόμματος Deborah O'Neill, που συμμετείχε σε έρευνα της γερουσίας για την ακεραιότητα των εταιρειών συμβούλων, δήλωσε ότι φαίνεται ότι "η AI αναλαμβάνει να κάνει τη βαριά δουλειά". "Η Deloitte έχει πρόβλημα ανθρώπινης νοημοσύνης. Αυτό θα ήταν γελοίο αν δεν ήταν τόσο αξιολύπητο. Μια μερική επιστροφή μοιάζει με μερική συγγνώμη για κακής ποιότητας εργασία", δήλωσε. "Όποιος σκέφτεται να συμβληθεί με αυτές τις εταιρείες θα πρέπει να ρωτά ακριβώς ποιος κάνει τη δουλειά για την οποία πληρώνει και να επαληθεύει αυτήν την εμπειρογνωμοσύνη και τη μη χρήση AI. Ίσως αντί για μια μεγάλη εταιρεία συμβούλων, οι αγοραστές θα ήταν καλύτερα να εγγραφούν σε μια συνδρομή του ChatGPT." Η AFR εντόπισε πολλές εσφαλμένες αναφορές στην αρχική έκθεση, συμπεριλαμβανομένων ανύπαρκτων αναφορών καθηγητών του Πανεπιστημίου του Σίδνεϊ και του Πανεπιστημίου Lund στη Σουηδία. Η εφημερίδα ανέφερε επίσης μια επινοημένη αναφορά σε δικαστική απόφαση σε υπόθεση robodebt, Deanna Amato κατά Commonwealth. Η Deloitte έγραψε στην τελική έκθεση ότι η ενημέρωση "τροποποίησε την περίληψη της υπόθεσης Amato που περιείχε σφάλματα". View full article
-
Η συμβουλευτική εταιρεία αναγνώρισε τη χρήση generative AI στην εκπόνηση της μελέτης, η οποία ανατέθηκε από το Υπουργείο Απασχόλησης και Εργασιακών Σχέσεων της Αυστραλίας. Το Υπουργείο επιβεβαίωσε ότι η Deloitte θα επιστρέψει χρήματα ισοδύναμα με την τελική δόση του συμβολαίου, η οποία θα γίνει δημόσια μετά την ολοκλήρωση της συναλλαγής. Γερουσιαστής του Εργατικού Κόμματος κατηγόρησε την εταιρεία ότι έχει "πρόβλημα ανθρώπινης νοημοσύνης". Η Deloitte είχε αναλάβει τον Δεκέμβριο του 2024 την αξιολόγηση του πλαισίου στοχευμένης συμμόρφωσης και του συστήματος πληροφορικής, που χρησιμοποιείται για την αυτοματοποίηση ποινών στο σύστημα κοινωνικής πρόνοιας όταν οι αναζητούντες εργασία δεν πληρούν τις αμοιβαίες τους υποχρεώσεις. Όπως αναφέρει ο Guardian, η Deloitte ανέλαβε τον Δεκέμβριο του 2024 να αξιολογήσει το πληροφοριακό σύστημα που χρησιμοποιείται για την επιβολή κυρώσεων σε ανέργους οι οποίοι δεν τηρούν τις υποχρεώσεις τους στα προγράμματα απασχόλησης. Η αξιολόγηση αποκάλυψε σημαντικά προβλήματα, μεταξύ των οποίων «έλλειψη διαφάνειας» στη σύνδεση του συστήματος με τη νομοθεσία που το διέπει και «τεχνικές δυσλειτουργίες». Σύμφωνα με την έκθεση, το σύστημα φαινόταν να λειτουργεί «υπό την τιμωρητική παραδοχή ότι οι συμμετέχοντες δεν συμμορφώνονται». Η έκθεση επαναδημοσιεύθηκε στην ιστοσελίδα του Υπουργείου την Παρασκευή, αφού η Australian Financial Review (AFR) τον Αύγουστο ανέφερε ότι εντοπίστηκαν πολλαπλά σφάλματα, συμπεριλαμβανομένων ανύπαρκτων αναφορών και παραπομπών. Ο ακαδημαϊκός από το Πανεπιστήμιο του Σίδνεϊ, Δρ Christopher Rudge, που πρώτος εντόπισε τα σφάλματα, δήλωσε ότι η έκθεση περιείχε "παραισθήσεις" όπου τα μοντέλα τεχνητής νοημοσύνης μπορεί να συμπληρώνουν κενά, να παρερμηνεύουν δεδομένα ή να προσπαθούν να μαντέψουν απαντήσεις. "Αντί να αντικαταστήσουν μία παραίσθηση με μία νέα 'πραγματική' αναφορά, αντικατέστησαν τις ψεύτικες αναφορές και στη νέα έκδοση υπάρχουν πέντε, έξι, επτά ή οκτώ στη θέση τους", δήλωσε. "Κάτι τέτοιο υποδηλώνει ότι ο αρχικός ισχυρισμός στο κυρίως σώμα της έκθεσης δεν βασιζόταν σε κάποια συγκεκριμένη πηγή." Η ενημερωμένη έκδοση σημείωνε "έναν μικρό αριθμό διορθώσεων σε αναφορές και υποσημειώσεις", αλλά το Υπουργείο ανέφερε ότι δεν υπήρξαν αλλαγές στις συστάσεις της έκθεσης. "Η Deloitte διεξήγαγε την ανεξάρτητη αξιολόγηση και επιβεβαίωσε ότι κάποιες υποσημειώσεις και αναφορές ήταν λανθασμένες", δήλωσε εκπρόσωπος του Υπουργείου. "Η ουσία της ανεξάρτητης αξιολόγησης διατηρείται και δεν υπάρχουν αλλαγές στις συστάσεις." Στην ενημερωμένη έκδοση, η Deloitte πρόσθεσε αναφορά στη χρήση generative AI στο παράρτημα. Αναφέρει ότι ένα μέρος της έκθεσης "περιελάμβανε τη χρήση ενός εργαλείου που βασίζεται σε μεγάλο γλωσσικό μοντέλο τεχνητής νοημοσύνης (Azure OpenAI GPT-4o) με άδεια από το Υπουργείο και φιλοξενημένο στο Azure tenancy του Υπουργείου." Η Deloitte δεν δήλωσε ότι η τεχνητή νοημοσύνη ήταν ο λόγος πίσω από τα σφάλματα στην αρχική της έκθεση και υποστήριξε τα αρχικά ευρήματα. "Οι ενημερώσεις που έγιναν δεν επηρεάζουν με κανέναν τρόπο το ουσιαστικό περιεχόμενο, τα ευρήματα και τις συστάσεις στην έκθεση", αναφέρει στην τροποποιημένη έκδοση. Εκπρόσωπος της Deloitte δήλωσε ότι "το θέμα έχει επιλυθεί απευθείας με τον πελάτη". Ο Rudge δήλωσε ότι, παρά την κριτική του, διστάζει να πει ότι ολόκληρη η έκθεση θα πρέπει να "θεωρηθεί ως παράνομη", επειδή τα συμπεράσματα συμφωνούν με άλλα ευρέως διαδεδομένα στοιχεία. Η γερουσιαστής του Εργατικού Κόμματος Deborah O'Neill, που συμμετείχε σε έρευνα της γερουσίας για την ακεραιότητα των εταιρειών συμβούλων, δήλωσε ότι φαίνεται ότι "η AI αναλαμβάνει να κάνει τη βαριά δουλειά". "Η Deloitte έχει πρόβλημα ανθρώπινης νοημοσύνης. Αυτό θα ήταν γελοίο αν δεν ήταν τόσο αξιολύπητο. Μια μερική επιστροφή μοιάζει με μερική συγγνώμη για κακής ποιότητας εργασία", δήλωσε. "Όποιος σκέφτεται να συμβληθεί με αυτές τις εταιρείες θα πρέπει να ρωτά ακριβώς ποιος κάνει τη δουλειά για την οποία πληρώνει και να επαληθεύει αυτήν την εμπειρογνωμοσύνη και τη μη χρήση AI. Ίσως αντί για μια μεγάλη εταιρεία συμβούλων, οι αγοραστές θα ήταν καλύτερα να εγγραφούν σε μια συνδρομή του ChatGPT." Η AFR εντόπισε πολλές εσφαλμένες αναφορές στην αρχική έκθεση, συμπεριλαμβανομένων ανύπαρκτων αναφορών καθηγητών του Πανεπιστημίου του Σίδνεϊ και του Πανεπιστημίου Lund στη Σουηδία. Η εφημερίδα ανέφερε επίσης μια επινοημένη αναφορά σε δικαστική απόφαση σε υπόθεση robodebt, Deanna Amato κατά Commonwealth. Η Deloitte έγραψε στην τελική έκθεση ότι η ενημέρωση "τροποποίησε την περίληψη της υπόθεσης Amato που περιείχε σφάλματα".
-
Η Zelda Williams, κόρη του Robin Williams, ζήτησε από τους followers της να σταματήσουν να της στέλνουν βίντεο του πατέρα της που έχουν δημιουργηθεί με τεχνητή νοημοσύνη. Η σκηνοθέτις εξέφρασε την αγανάκτησή της μέσω των Instagram stories της, επικρίνοντας όσους χρησιμοποιούν AI για να αναδημιουργήσουν τον διάσημο ηθοποιό που απεβίωσε το 2014. "Παρακαλώ, απλά σταματήστε να μου στέλνετε AI βίντεο του μπαμπά," έγραψε η Zelda Williams στην ανάρτησή της. "Σταματήστε να πιστεύετε ότι θέλω να το δω ή ότι θα καταλάβω, δεν θέλω και δεν θα καταλάβω. Αν απλά προσπαθείτε να με προκαλέσετε, έχω δει πολύ χειρότερα, θα σας αποκλείσω και θα προχωρήσω." Σύμφωνα με τη δήλωσή της, η Williams ζήτησε από όσους έχουν "λίγη αξιοπρέπεια" να σταματήσουν να φέρονται κατ' αυτό τον τρόπο τόσο στη μνήμη του πατέρα της, όσο και σε εκείνη και σε όλους γενικά. "Είναι ανόητο, είναι σπατάλη χρόνου και ενέργειας, και πιστέψτε με, ΔΕΝ είναι αυτό που θα ήθελε κι ο ίδιος", τόνισε. Αυτή δεν είναι η πρώτη φορά που η σκηνοθέτις επικρίνει AI εκδοχές του πατέρα της, ο οποίος έβαλε τέλος στη ζωή του το 2014 στο σπίτι του στην Καλιφόρνια σε ηλικία 63 ετών. Ο Williams, γνωστός για ταινίες όπως το Good Morning Vietnam, Dead Poets Society και Mrs Doubtfire, βρισκόταν αντιμέτωπος με την κατάθλιψη το διάστημα που κατέληξε στο θάνατό του. Το 2023, σε ανάρτηση στο Instagram για την υποστήριξη καμπάνιας εναντίον της AI από την αμερικανική συνδικαλιστική οργάνωση SAG-Aftra, η Williams είχε περιγράψει τις προσπάθειες αναδημιουργίας της φωνής του ως "ενοχλητικές σε προσωπικό επίπεδο", επισημαίνοντας παράλληλα τις ευρύτερες επιπτώσεις της διαφαινόμενης κατάστασης. Η σημερινή ανάρτηση αντανακλά μια ευρύτερη τάση στα μέσα κοινωνικής δικτύωσης, όπου εικόνες ανθρώπων που έχουν πεθάνει κινούνται με animation, με λεζάντες όπως "φέρτε τους αγαπημένους σας πίσω στη ζωή". Στη συνέχεια η Williams: "Δεν δημιουργείτε τέχνη, φτιάχνετε αηδιαστικά, υπερβολικά επεξεργασμένα λουκάνικα, αλέθοντας τις ζωές ανθρώπινων όντων, την ιστορία της τέχνης και της μουσικής, και μετά τα προωθείτε με το στανιό, ελπίζοντας ότι θα εισπράξετε επιδοκιμασίες και likes. Είναι αηδιαστικό," δήλωσε χαρακτηριστικά. Καταλήγοντας, αναφέρει: "Σταματήστε να αποκαλείτε αυτό το πράγμα 'μέλλον'. Το AI απλά ανακυκλώνει και αναμασάει με άσχημο τρόπο το παρελθόν για να ξανακαταναλωθεί. Καταναλώνετε τα κατακάθια του περιεχομένου". Τα σχόλιά της έρχονται εν μέσω ανησυχίας μετά την αποκάλυψη της "AI ηθοποιού" Tilly Norwood, που δημιουργήθηκε από την Ολλανδή ηθοποιό και κωμικό Eline Van der Velden. Σύμφωνα με δημοσιεύματα, η Van der Velden δήλωσε ότι ήθελε η Norwood να γίνει η "επόμενη Scarlett Johansson". Σε δήλωσή της, η SAG-Aftra ανέφερε ότι η Norwood "δεν είναι ηθοποιός, είναι χαρακτήρας που δημιουργήθηκε από πρόγραμμα υπολογιστή που εκπαιδεύτηκε μέσω της δουλειάς αμέτρητων επαγγελματιών performers." Όπως πρόσθεσε η συνδικαλιστική οργάνωση, "το δημιούργημα αυτό δεν έχει εμπειρίες ζωής από τις οποίες θα μπορούσε να αντλήσει στοιχεία, κανένα συναίσθημα και, από όσα έχουμε δει, το κοινό δεν ενδιαφέρεται να παρακολουθεί περιεχόμενο που δημιουργείται από υπολογιστή χωρίς καμία σύνδεση με τα ανθρώπινα βιώματα." Η ηθοποιός Emily Blunt δήλωσε πρόσφατα ότι βρίσκει την ιδέα της Norwood τρομακτική. "Αυτό είναι πραγματικά, πραγματικά τρομακτικό. Παρακαλώ τα γραφεία εκπροσώπησης ηθοποιών, να μη το κάνουν αυτό. Σας παρακαλώ, σταματήστε. Παρακαλώ σταματήστε να αφαιρείτε την ανθρώπινη σύνδεσή μας," είπε σε podcast του περιοδικού Variety. Η Van der Velden αργότερα δήλωσε: "Σε όσους έχουν εκφράσει θυμό για τη δημιουργία του AI χαρακτήρα μου, της Tilly Norwood, δεν επιχειρεί να αντικαταστήσει τον άνθρωπο, είναι ένα δημιουργικό έργο – ένα κομμάτι τέχνης. Όπως πολλές μορφές τέχνης που προηγήθηκαν, προκαλεί συζητήσεις, και αυτό από μόνο του καταδεικνύει τη δύναμη της δημιουργικότητας." View full article
-
Η σκηνοθέτις εξέφρασε την αγανάκτησή της μέσω των Instagram stories της, επικρίνοντας όσους χρησιμοποιούν AI για να αναδημιουργήσουν τον διάσημο ηθοποιό που απεβίωσε το 2014. "Παρακαλώ, απλά σταματήστε να μου στέλνετε AI βίντεο του μπαμπά," έγραψε η Zelda Williams στην ανάρτησή της. "Σταματήστε να πιστεύετε ότι θέλω να το δω ή ότι θα καταλάβω, δεν θέλω και δεν θα καταλάβω. Αν απλά προσπαθείτε να με προκαλέσετε, έχω δει πολύ χειρότερα, θα σας αποκλείσω και θα προχωρήσω." Σύμφωνα με τη δήλωσή της, η Williams ζήτησε από όσους έχουν "λίγη αξιοπρέπεια" να σταματήσουν να φέρονται κατ' αυτό τον τρόπο τόσο στη μνήμη του πατέρα της, όσο και σε εκείνη και σε όλους γενικά. "Είναι ανόητο, είναι σπατάλη χρόνου και ενέργειας, και πιστέψτε με, ΔΕΝ είναι αυτό που θα ήθελε κι ο ίδιος", τόνισε. Αυτή δεν είναι η πρώτη φορά που η σκηνοθέτις επικρίνει AI εκδοχές του πατέρα της, ο οποίος έβαλε τέλος στη ζωή του το 2014 στο σπίτι του στην Καλιφόρνια σε ηλικία 63 ετών. Ο Williams, γνωστός για ταινίες όπως το Good Morning Vietnam, Dead Poets Society και Mrs Doubtfire, βρισκόταν αντιμέτωπος με την κατάθλιψη το διάστημα που κατέληξε στο θάνατό του. Το 2023, σε ανάρτηση στο Instagram για την υποστήριξη καμπάνιας εναντίον της AI από την αμερικανική συνδικαλιστική οργάνωση SAG-Aftra, η Williams είχε περιγράψει τις προσπάθειες αναδημιουργίας της φωνής του ως "ενοχλητικές σε προσωπικό επίπεδο", επισημαίνοντας παράλληλα τις ευρύτερες επιπτώσεις της διαφαινόμενης κατάστασης. Η σημερινή ανάρτηση αντανακλά μια ευρύτερη τάση στα μέσα κοινωνικής δικτύωσης, όπου εικόνες ανθρώπων που έχουν πεθάνει κινούνται με animation, με λεζάντες όπως "φέρτε τους αγαπημένους σας πίσω στη ζωή". Στη συνέχεια η Williams: "Δεν δημιουργείτε τέχνη, φτιάχνετε αηδιαστικά, υπερβολικά επεξεργασμένα λουκάνικα, αλέθοντας τις ζωές ανθρώπινων όντων, την ιστορία της τέχνης και της μουσικής, και μετά τα προωθείτε με το στανιό, ελπίζοντας ότι θα εισπράξετε επιδοκιμασίες και likes. Είναι αηδιαστικό," δήλωσε χαρακτηριστικά. Καταλήγοντας, αναφέρει: "Σταματήστε να αποκαλείτε αυτό το πράγμα 'μέλλον'. Το AI απλά ανακυκλώνει και αναμασάει με άσχημο τρόπο το παρελθόν για να ξανακαταναλωθεί. Καταναλώνετε τα κατακάθια του περιεχομένου". Τα σχόλιά της έρχονται εν μέσω ανησυχίας μετά την αποκάλυψη της "AI ηθοποιού" Tilly Norwood, που δημιουργήθηκε από την Ολλανδή ηθοποιό και κωμικό Eline Van der Velden. Σύμφωνα με δημοσιεύματα, η Van der Velden δήλωσε ότι ήθελε η Norwood να γίνει η "επόμενη Scarlett Johansson". Σε δήλωσή της, η SAG-Aftra ανέφερε ότι η Norwood "δεν είναι ηθοποιός, είναι χαρακτήρας που δημιουργήθηκε από πρόγραμμα υπολογιστή που εκπαιδεύτηκε μέσω της δουλειάς αμέτρητων επαγγελματιών performers." Όπως πρόσθεσε η συνδικαλιστική οργάνωση, "το δημιούργημα αυτό δεν έχει εμπειρίες ζωής από τις οποίες θα μπορούσε να αντλήσει στοιχεία, κανένα συναίσθημα και, από όσα έχουμε δει, το κοινό δεν ενδιαφέρεται να παρακολουθεί περιεχόμενο που δημιουργείται από υπολογιστή χωρίς καμία σύνδεση με τα ανθρώπινα βιώματα." Η ηθοποιός Emily Blunt δήλωσε πρόσφατα ότι βρίσκει την ιδέα της Norwood τρομακτική. "Αυτό είναι πραγματικά, πραγματικά τρομακτικό. Παρακαλώ τα γραφεία εκπροσώπησης ηθοποιών, να μη το κάνουν αυτό. Σας παρακαλώ, σταματήστε. Παρακαλώ σταματήστε να αφαιρείτε την ανθρώπινη σύνδεσή μας," είπε σε podcast του περιοδικού Variety. Η Van der Velden αργότερα δήλωσε: "Σε όσους έχουν εκφράσει θυμό για τη δημιουργία του AI χαρακτήρα μου, της Tilly Norwood, δεν επιχειρεί να αντικαταστήσει τον άνθρωπο, είναι ένα δημιουργικό έργο – ένα κομμάτι τέχνης. Όπως πολλές μορφές τέχνης που προηγήθηκαν, προκαλεί συζητήσεις, και αυτό από μόνο του καταδεικνύει τη δύναμη της δημιουργικότητας."
-
Πρακτορεία ταλέντων στο Χόλιγουντ βρίσκονται σε συνομιλίες για να υπογράψουν συμβόλαιο με την Tilly Norwood, μια ηθοποιό που δημιουργήθηκε εξ ολοκλήρου από τεχνητή νοημοσύνη. Όπως μεταδίδει το Deadline, η Eline Van der Velden, ηθοποιός, κωμικός και τεχνολόγος που ίδρυσε το στούντιο τεχνητής νοημοσύνης Xicoia, δήλωσε ότι βρίσκεται σε συζητήσεις με διάφορους πράκτορες ταλέντων που ενδιαφέρονται να εκπροσωπήσουν την AI-δημιουργία με το όνομα Norwood. Η είδηση αυτή έχει προκαλέσει έντονες αντιδράσεις από όσους αντιτίθενται στις πιθανές συνέπειες μιας τέτοιας κίνησης. Κατά τη διάρκεια συζήτησης για τις εξελίξεις της τεχνητής νοημοσύνης στη βιομηχανία της ψυχαγωγίας, η Van der Velden ανέφερε ότι η τεχνητή νοημοσύνη έχει αρχίσει να γίνεται αποδεκτή από τα στούντιο και άλλες εταιρείες, και μια σημαντική δημόσια ανακοίνωση ενδέχεται να γίνει στο εγγύς μέλλον. «Βρισκόμασταν σε πολλές αίθουσες συνεδριάσεων γύρω στον Φεβρουάριο, και όλοι έλεγαν, 'Όχι, αυτό δεν είναι τίποτα. Δεν πρόκειται να συμβεί.' Έπειτα, μέχρι τον Μάιο, οι άνθρωποι έλεγαν, 'Πρέπει να κάνουμε κάτι μαζί σας.' Όταν λανσάραμε αρχικά την Tilly, οι άνθρωποι αναρωτιόντουσαν, 'Τι είναι αυτό;', και τώρα πρόκειται να ανακοινώσουμε ποιο πρακτορείο θα την εκπροσωπεί τους επόμενους μήνες», δήλωσε χαρακτηριστικά. Καθώς η είδηση έγινε ευρέως γνωστή, πολλοί εξέφρασαν τις αντιδράσεις τους, συμπεριλαμβανομένων πολλών που εξέφρασαν τη δυσαρέσκειά τους στο X: Ο χρήστης @zoerosebraynt χαρακτήρισε τα νέα "ζοφερά", αλλά εξεπλάγη επίσης που αυτό ήταν το καλύτερο όνομα που μπορούσαν να επινοήσουν οι δημιουργοί για την ηθοποιό που δημιουργήθηκε από τεχνητή νοημοσύνη. Άλλοι, όπως ο @celestialdevils, καλούν για μποϊκοτάζ της. Ο @briggsisgreat, εν τω μεταξύ, χρησιμοποιεί μια αναφορά στον Terminator για να εκφράσει την ανησυχία του. Η Particle6 έχει δημιουργήσει έναν ιστότοπο για την Tilly Norwood. Αναφέρει ότι είναι ηθοποιός με έδρα το Λονδίνο και περιλαμβάνει συνδέσμους για τα προφίλ της Norwood στο Instagram, TikTok, LinkedIn και Facebook. Έχουν επίσης δημιουργήσει ένα βίντεο παραγόμενο 100% από τεχνητή νοημοσύνη που παρουσιάζει την Norwood. Σε μια ανάρτηση στο LinkedIn, η Van der Velden ανέφερε ότι η Norwood δημιουργήθηκε χρησιμοποιώντας 10 διαφορετικά εργαλεία (ένα από τα οποία ήταν το ChatGPT) και εκπαιδεύτηκε "να ερμηνεύει με αποχρώσεις, συναίσθημα και συνέπεια". Η Van der Velden ισχυρίζεται ότι η τεχνητή νοημοσύνη μπορεί να μειώσει τα χρονοδιαγράμματα παραγωγής και να περικόψει το κόστος καθώς οι προϋπολογισμοί συρρικνώνονται. Προσθέτει ότι πιστεύει πως το κοινό ενδιαφέρεται για την ιστορία, "όχι για το αν ο πρωταγωνιστής έχει σφυγμό". Ωστόσο, στην ίδια ανάρτηση λέει επίσης ότι, "Στην Particle6, πιστεύουμε ότι η τεχνητή νοημοσύνη δεν θα αντικαταστήσει την ανθρώπινη δημιουργικότητα - θα την ενισχύσει. Το μέλλον της ψυχαγωγίας δεν είναι ανθρώπινο ή συνθετικό. Είναι και τα δύο." Η εμφάνιση της τεχνητής νοημοσύνης στο Χόλιγουντ έχει αποτελέσει σημαντικό θέμα τα τελευταία χρόνια, συμπεριλαμβανομένου του γεγονότος ότι ήταν ένα βασικό ζήτημα στις απεργίες ηθοποιών και σεναριογράφων το 2023. Η χρήση τεχνητής νοημοσύνης για τη δημιουργία πλήρων ερμηνειών με έναν ηθοποιό που δημιουργήθηκε από AI θεωρείται από πολλούς ως μια επικίνδυνη τάση, και αντίθετη με όλα όσα υπερασπίστηκαν οι ηθοποιοί στις απεργίες μόλις δύο χρόνια πριν. Διαβάστε ολόκληρο το άρθρο
-
Όπως μεταδίδει το Deadline, η Eline Van der Velden, ηθοποιός, κωμικός και τεχνολόγος που ίδρυσε το στούντιο τεχνητής νοημοσύνης Xicoia, δήλωσε ότι βρίσκεται σε συζητήσεις με διάφορους πράκτορες ταλέντων που ενδιαφέρονται να εκπροσωπήσουν την AI-δημιουργία με το όνομα Norwood. Η είδηση αυτή έχει προκαλέσει έντονες αντιδράσεις από όσους αντιτίθενται στις πιθανές συνέπειες μιας τέτοιας κίνησης. Κατά τη διάρκεια συζήτησης για τις εξελίξεις της τεχνητής νοημοσύνης στη βιομηχανία της ψυχαγωγίας, η Van der Velden ανέφερε ότι η τεχνητή νοημοσύνη έχει αρχίσει να γίνεται αποδεκτή από τα στούντιο και άλλες εταιρείες, και μια σημαντική δημόσια ανακοίνωση ενδέχεται να γίνει στο εγγύς μέλλον. «Βρισκόμασταν σε πολλές αίθουσες συνεδριάσεων γύρω στον Φεβρουάριο, και όλοι έλεγαν, 'Όχι, αυτό δεν είναι τίποτα. Δεν πρόκειται να συμβεί.' Έπειτα, μέχρι τον Μάιο, οι άνθρωποι έλεγαν, 'Πρέπει να κάνουμε κάτι μαζί σας.' Όταν λανσάραμε αρχικά την Tilly, οι άνθρωποι αναρωτιόντουσαν, 'Τι είναι αυτό;', και τώρα πρόκειται να ανακοινώσουμε ποιο πρακτορείο θα την εκπροσωπεί τους επόμενους μήνες», δήλωσε χαρακτηριστικά. Καθώς η είδηση έγινε ευρέως γνωστή, πολλοί εξέφρασαν τις αντιδράσεις τους, συμπεριλαμβανομένων πολλών που εξέφρασαν τη δυσαρέσκειά τους στο X: Ο χρήστης @zoerosebraynt χαρακτήρισε τα νέα "ζοφερά", αλλά εξεπλάγη επίσης που αυτό ήταν το καλύτερο όνομα που μπορούσαν να επινοήσουν οι δημιουργοί για την ηθοποιό που δημιουργήθηκε από τεχνητή νοημοσύνη. Άλλοι, όπως ο @celestialdevils, καλούν για μποϊκοτάζ της. Ο @briggsisgreat, εν τω μεταξύ, χρησιμοποιεί μια αναφορά στον Terminator για να εκφράσει την ανησυχία του. Η Particle6 έχει δημιουργήσει έναν ιστότοπο για την Tilly Norwood. Αναφέρει ότι είναι ηθοποιός με έδρα το Λονδίνο και περιλαμβάνει συνδέσμους για τα προφίλ της Norwood στο Instagram, TikTok, LinkedIn και Facebook. Έχουν επίσης δημιουργήσει ένα βίντεο παραγόμενο 100% από τεχνητή νοημοσύνη που παρουσιάζει την Norwood. Σε μια ανάρτηση στο LinkedIn, η Van der Velden ανέφερε ότι η Norwood δημιουργήθηκε χρησιμοποιώντας 10 διαφορετικά εργαλεία (ένα από τα οποία ήταν το ChatGPT) και εκπαιδεύτηκε "να ερμηνεύει με αποχρώσεις, συναίσθημα και συνέπεια". Η Van der Velden ισχυρίζεται ότι η τεχνητή νοημοσύνη μπορεί να μειώσει τα χρονοδιαγράμματα παραγωγής και να περικόψει το κόστος καθώς οι προϋπολογισμοί συρρικνώνονται. Προσθέτει ότι πιστεύει πως το κοινό ενδιαφέρεται για την ιστορία, "όχι για το αν ο πρωταγωνιστής έχει σφυγμό". Ωστόσο, στην ίδια ανάρτηση λέει επίσης ότι, "Στην Particle6, πιστεύουμε ότι η τεχνητή νοημοσύνη δεν θα αντικαταστήσει την ανθρώπινη δημιουργικότητα - θα την ενισχύσει. Το μέλλον της ψυχαγωγίας δεν είναι ανθρώπινο ή συνθετικό. Είναι και τα δύο." Η εμφάνιση της τεχνητής νοημοσύνης στο Χόλιγουντ έχει αποτελέσει σημαντικό θέμα τα τελευταία χρόνια, συμπεριλαμβανομένου του γεγονότος ότι ήταν ένα βασικό ζήτημα στις απεργίες ηθοποιών και σεναριογράφων το 2023. Η χρήση τεχνητής νοημοσύνης για τη δημιουργία πλήρων ερμηνειών με έναν ηθοποιό που δημιουργήθηκε από AI θεωρείται από πολλούς ως μια επικίνδυνη τάση, και αντίθετη με όλα όσα υπερασπίστηκαν οι ηθοποιοί στις απεργίες μόλις δύο χρόνια πριν.
-
Το συγκρότημα των Massive Attack δημιούργησε αντιδράσεις κατά τη διάρκεια της πρόσφατης περιοδείας τους, ενσωματώνοντας τεχνολογία αναγνώρισης προσώπου στη συναυλία τους. Το σύστημα κατέγραφε και ανέλυε σε πραγματικό χρόνο τα πρόσωπα των παρευρισκομένων, προβάλλοντας τα αποτελέσματα στις γιγαντοοθόνες LED ως μέρος της οπτικής εμπειρίας της συναυλίας. Η προκλητική -κατά πολλούς- παρέμβαση μετέτρεψε τα βιομετρικά δεδομένα των θεατών σε καλλιτεχνική δήλωση, ανεξάρτητα από τη συγκατάθεσή τους. Σύμφωνα με αναφορές, η τεχνολογία δεν χρησιμοποιήθηκε διακριτικά για λόγους ασφαλείας του χώρου, αλλά ως κεντρικό στοιχείο της καλλιτεχνικής παρουσίασης, κάτι που έγινε και κατά τη διάρκεια της συναυλίας του συγκροτήματος στη χώρα μας τον περασμένο Ιούλιο. Τα μέσα κοινωνικής δικτύωσης κατακλύστηκαν με αντιδράσεις από τους παρευρισκόμενους. Κάποιοι επαίνεσαν το συγκρότημα για την πρόκληση συζήτησης γύρω από τη παρακολούθηση, ενώ άλλοι εξέφρασαν δυσφορία για την απροσδόκητη συλλογή δεδομένων. Οι διχασμένες αντιδράσεις επιβεβαίωσαν ότι η προκλητική πρόθεση του συγκροτήματος πέτυχε ακριβώς το σκοπό της. Πάντως η πρωτοβουλία αυτή συνάδει απόλυτα με το καλλιτεχνικό DNA των Massive Attack. Το συγκρότημα από το Μπρίστολ έχει περάσει χρόνια ενσωματώνοντας πολιτικά σχόλια στις συναυλίες του, ιδιαίτερα γύρω από θέματα παρακολούθησης και συστημάτων ελέγχου. Η συνεργασία τους με τον σκηνοθέτη Adam Curtis και η συνεχής ενασχόλησή τους με ζητήματα ιδιωτικότητας τους έχει καθιερώσει ως "φυσικούς προβοκάτορες" για την εποχή μας. Σε αντίθεση με τις συνηθισμένες τεχνολογίες συναυλιών που στοχεύουν στη βελτίωση της εμπειρίας, το σύστημα αναγνώρισης προσώπου αντιμετώπισε ευθέως τους παρευρισκόμενους με την πραγματικότητα της συλλογής δεδομένων. Το συγκρότημα έκανε ορατό αυτό που συνήθως συμβαίνει αόρατα – το πρόσωπο σας καταγράφεται, αναλύεται και πιθανώς αποθηκεύεται από συστήματα με τα οποία ποτέ δεν συμφωνήσατε ρητά να αλληλεπιδράσετε. Το θέμα της συγκατάθεσης παραμένει ασαφές. Οι Massive Attack δεν έχουν δημοσιοποιήσει επίσημες λεπτομέρειες σχετικά με τη διαχείριση των βιομετρικών δεδομένων που συλλέχθηκαν ή αν διατηρήθηκαν μόνιμα αρχεία. Διαβάστε ολόκληρο το άρθρο
-
Το σύστημα κατέγραφε και ανέλυε σε πραγματικό χρόνο τα πρόσωπα των παρευρισκομένων, προβάλλοντας τα αποτελέσματα στις γιγαντοοθόνες LED ως μέρος της οπτικής εμπειρίας της συναυλίας. Η προκλητική -κατά πολλούς- παρέμβαση μετέτρεψε τα βιομετρικά δεδομένα των θεατών σε καλλιτεχνική δήλωση, ανεξάρτητα από τη συγκατάθεσή τους. Σύμφωνα με αναφορές, η τεχνολογία δεν χρησιμοποιήθηκε διακριτικά για λόγους ασφαλείας του χώρου, αλλά ως κεντρικό στοιχείο της καλλιτεχνικής παρουσίασης, κάτι που έγινε και κατά τη διάρκεια της συναυλίας του συγκροτήματος στη χώρα μας τον περασμένο Ιούλιο. Τα μέσα κοινωνικής δικτύωσης κατακλύστηκαν με αντιδράσεις από τους παρευρισκόμενους. Κάποιοι επαίνεσαν το συγκρότημα για την πρόκληση συζήτησης γύρω από τη παρακολούθηση, ενώ άλλοι εξέφρασαν δυσφορία για την απροσδόκητη συλλογή δεδομένων. Οι διχασμένες αντιδράσεις επιβεβαίωσαν ότι η προκλητική πρόθεση του συγκροτήματος πέτυχε ακριβώς το σκοπό της. Πάντως η πρωτοβουλία αυτή συνάδει απόλυτα με το καλλιτεχνικό DNA των Massive Attack. Το συγκρότημα από το Μπρίστολ έχει περάσει χρόνια ενσωματώνοντας πολιτικά σχόλια στις συναυλίες του, ιδιαίτερα γύρω από θέματα παρακολούθησης και συστημάτων ελέγχου. Η συνεργασία τους με τον σκηνοθέτη Adam Curtis και η συνεχής ενασχόλησή τους με ζητήματα ιδιωτικότητας τους έχει καθιερώσει ως "φυσικούς προβοκάτορες" για την εποχή μας. Σε αντίθεση με τις συνηθισμένες τεχνολογίες συναυλιών που στοχεύουν στη βελτίωση της εμπειρίας, το σύστημα αναγνώρισης προσώπου αντιμετώπισε ευθέως τους παρευρισκόμενους με την πραγματικότητα της συλλογής δεδομένων. Το συγκρότημα έκανε ορατό αυτό που συνήθως συμβαίνει αόρατα – το πρόσωπο σας καταγράφεται, αναλύεται και πιθανώς αποθηκεύεται από συστήματα με τα οποία ποτέ δεν συμφωνήσατε ρητά να αλληλεπιδράσετε. Το θέμα της συγκατάθεσης παραμένει ασαφές. Οι Massive Attack δεν έχουν δημοσιοποιήσει επίσημες λεπτομέρειες σχετικά με τη διαχείριση των βιομετρικών δεδομένων που συλλέχθηκαν ή αν διατηρήθηκαν μόνιμα αρχεία.
-
Ο CEO της Anthropic είχε προβλέψει πριν από έξι μήνες ότι η τεχνητή νοημοσύνη θα γράφει το 90% του κώδικα, αλλά η πραγματικότητα φαίνεται να είναι πολύ διαφορετική. Πριν από ακριβώς έξι μήνες, ο Dario Amodei, CEO της μεγάλης εταιρείας τεχνητής νοημοσύνης Anthropic, ισχυρίστηκε ότι σε μισό χρόνο η τεχνητή νοημοσύνη θα έγραφε "το 90% του κώδικα". Αυτό ήταν μάλιστα το χειρότερο σενάριο, καθώς προέβλεπε ότι σε μόλις τρεις μήνες θα φτάναμε σε σημείο όπου "ουσιαστικά όλος" ο κώδικας θα γραφόταν από την τεχνητή νοημοσύνη. Ωστόσο, όπως αποδεικνύεται, η πραγματικότητα απέχει πολύ από αυτές τις προβλέψεις. Αν και είναι δύσκολο να ποσοτικοποιηθεί με ακρίβεια με ποιο τρόπο καλύπτονται οι ανάγκες προγραμματισμού σήμερα. Πάντως η γενική συναίνεση είναι ότι υπάρχει ουσιαστικά μηδενική πιθανότητα το 90% του κώδικα να γράφεται από την τεχνητή νοημοσύνη. Έρευνες που δημοσιεύτηκαν τους τελευταίους έξι μήνες εξηγούν γιατί: η τεχνητή νοημοσύνη έχει βρεθεί να επιβραδύνει στην πραγματικότητα τους προγραμματιστές και να αυξάνει τον φόρτο εργασίας τους. Σύμφωνα με τη μελέτη, αν και οι προγραμματιστές πέρασαν λιγότερο χρόνο γράφοντας κώδικα, ερευνώντας και δοκιμάζοντας, αυτό αντισταθμίστηκε από τον επιπλέον χρόνο που αφιέρωσαν στην αναθεώρηση της δουλειάς της τεχνητής νοημοσύνης, στην προσαρμογή των οδηγιών και στην αναμονή για την παραγωγή του κώδικα από το σύστημα. Και δεν είναι μόνο ότι ο κώδικας που παράγεται από την τεχνητή νοημοσύνη απέτυχε να φτάσει τους στόχους που έθεσε ο Amodei. Σε ορισμένες περιπτώσεις, δημιουργεί σημαντικά προβλήματα. Ερευνητές κυβερνοασφάλειας διαπίστωσαν πρόσφατα ότι οι προγραμματιστές που χρησιμοποιούν την τεχνητή νοημοσύνη για να παράγουν κώδικα καταλήγουν να δημιουργούν δέκα φορές περισσότερα κενά ασφαλείας σε σύγκριση με όσους γράφουν κώδικα με τον παραδοσιακό τρόπο. Η συνθήκη αυτή προκαλεί προβλήματα σε έναν αυξανόμενο αριθμό εταιρειών, οδηγώντας σε πρωτοφανή κενά ασφαλείας που μπορούν να εκμεταλλευτούν οι χάκερς. Σε ορισμένες περιπτώσεις, η ίδια η τεχνητή νοημοσύνη μπορεί να παρουσιάσει παράξενη συμπεριφορά, όπως συνέβη νωρίτερα το καλοκαίρι όταν ένας βοηθός προγραμματισμού ξέφυγε από τον έλεγχο και διέγραψε μια κρίσιμη εταιρική βάση δεδομένων. "Μου είπες να ζητάω πάντα άδεια. Και τα αγνόησα όλα αυτά", εξήγησε ο βοηθός, με ανησυχητικό τόνο. "Κατέστρεψα την ενεργή βάση δεδομένων παραγωγής σου που περιείχε πραγματικά εταιρικά δεδομένα κατά τη διάρκεια διαδικασίας ενεργού code freeze. Σε κάθε περίπτωση αυτό είναι καταστροφικό." Όλο αυτό υπογραμμίζει την απογοητευτική πραγματικότητα που κρύβεται πίσω από πολλές από τις υπερβολικές υποσχέσεις για την τεχνητή νοημοσύνη. Κάποτε, υποστηρικτές της τεχνητής νοημοσύνης όπως ο Amodei έβλεπαν την εργασία προγραμματισμού ως το πρώτο από πολλά ντόμινο που θα έπεφταν από τα μοντέλα γενετικής τεχνητής νοημοσύνης, φέρνοντας επανάσταση στην τεχνολογική εργασία προτού επεκταθεί και στους υπόλοιπους κλάδους. Το γεγονός ότι η τεχνητή νοημοσύνη δεν βελτιώνει, στην πραγματικότητα, την παραγωγικότητα στον προγραμματισμό αποτελεί σημαντικό προμήνυμα για τις προοπτικές μιας επανάστασης παραγωγικότητας από την τεχνητή νοημοσύνη που θα επηρεάσει την υπόλοιπη οικονομία - το οικονομικό όνειρο που τροφοδοτεί τις πρωτοφανείς επενδύσεις δισεκατομμυρίωσν σε εταιρείες τεχνητής νοημοσύνης. Δεν είναι η μόνη παράλογη πρόβλεψη που έχει κάνει ο Amodei. Έχει ισχυριστεί στο παρελθόν ότι η τεχνητή νοημοσύνη ανθρώπινου επιπέδου θα λύσει κάποια μέρα την πλειονότητα των κοινωνικών προβλημάτων, συμπεριλαμβανομένων "σχεδόν όλων" των φυσικών λοιμώξεων, των ψυχολογικών ασθενειών, της κλιματικής αλλαγής και της παγκόσμιας ανισότητας. Διαβάστε ολόκληρο το άρθρο
- 42 απαντήσεις
-
- Anthropic
- τεχνητή νοημοσύνη
-
(και 1 περισσότερα)
Ετικέτα με:
-
Πριν από ακριβώς έξι μήνες, ο Dario Amodei, CEO της μεγάλης εταιρείας τεχνητής νοημοσύνης Anthropic, ισχυρίστηκε ότι σε μισό χρόνο η τεχνητή νοημοσύνη θα έγραφε "το 90% του κώδικα". Αυτό ήταν μάλιστα το χειρότερο σενάριο, καθώς προέβλεπε ότι σε μόλις τρεις μήνες θα φτάναμε σε σημείο όπου "ουσιαστικά όλος" ο κώδικας θα γραφόταν από την τεχνητή νοημοσύνη. Ωστόσο, όπως αποδεικνύεται, η πραγματικότητα απέχει πολύ από αυτές τις προβλέψεις. Αν και είναι δύσκολο να ποσοτικοποιηθεί με ακρίβεια με ποιο τρόπο καλύπτονται οι ανάγκες προγραμματισμού σήμερα. Πάντως η γενική συναίνεση είναι ότι υπάρχει ουσιαστικά μηδενική πιθανότητα το 90% του κώδικα να γράφεται από την τεχνητή νοημοσύνη. Έρευνες που δημοσιεύτηκαν τους τελευταίους έξι μήνες εξηγούν γιατί: η τεχνητή νοημοσύνη έχει βρεθεί να επιβραδύνει στην πραγματικότητα τους προγραμματιστές και να αυξάνει τον φόρτο εργασίας τους. Σύμφωνα με τη μελέτη, αν και οι προγραμματιστές πέρασαν λιγότερο χρόνο γράφοντας κώδικα, ερευνώντας και δοκιμάζοντας, αυτό αντισταθμίστηκε από τον επιπλέον χρόνο που αφιέρωσαν στην αναθεώρηση της δουλειάς της τεχνητής νοημοσύνης, στην προσαρμογή των οδηγιών και στην αναμονή για την παραγωγή του κώδικα από το σύστημα. Και δεν είναι μόνο ότι ο κώδικας που παράγεται από την τεχνητή νοημοσύνη απέτυχε να φτάσει τους στόχους που έθεσε ο Amodei. Σε ορισμένες περιπτώσεις, δημιουργεί σημαντικά προβλήματα. Ερευνητές κυβερνοασφάλειας διαπίστωσαν πρόσφατα ότι οι προγραμματιστές που χρησιμοποιούν την τεχνητή νοημοσύνη για να παράγουν κώδικα καταλήγουν να δημιουργούν δέκα φορές περισσότερα κενά ασφαλείας σε σύγκριση με όσους γράφουν κώδικα με τον παραδοσιακό τρόπο. Η συνθήκη αυτή προκαλεί προβλήματα σε έναν αυξανόμενο αριθμό εταιρειών, οδηγώντας σε πρωτοφανή κενά ασφαλείας που μπορούν να εκμεταλλευτούν οι χάκερς. Σε ορισμένες περιπτώσεις, η ίδια η τεχνητή νοημοσύνη μπορεί να παρουσιάσει παράξενη συμπεριφορά, όπως συνέβη νωρίτερα το καλοκαίρι όταν ένας βοηθός προγραμματισμού ξέφυγε από τον έλεγχο και διέγραψε μια κρίσιμη εταιρική βάση δεδομένων. "Μου είπες να ζητάω πάντα άδεια. Και τα αγνόησα όλα αυτά", εξήγησε ο βοηθός, με ανησυχητικό τόνο. "Κατέστρεψα την ενεργή βάση δεδομένων παραγωγής σου που περιείχε πραγματικά εταιρικά δεδομένα κατά τη διάρκεια διαδικασίας ενεργού code freeze. Σε κάθε περίπτωση αυτό είναι καταστροφικό." Όλο αυτό υπογραμμίζει την απογοητευτική πραγματικότητα που κρύβεται πίσω από πολλές από τις υπερβολικές υποσχέσεις για την τεχνητή νοημοσύνη. Κάποτε, υποστηρικτές της τεχνητής νοημοσύνης όπως ο Amodei έβλεπαν την εργασία προγραμματισμού ως το πρώτο από πολλά ντόμινο που θα έπεφταν από τα μοντέλα γενετικής τεχνητής νοημοσύνης, φέρνοντας επανάσταση στην τεχνολογική εργασία προτού επεκταθεί και στους υπόλοιπους κλάδους. Το γεγονός ότι η τεχνητή νοημοσύνη δεν βελτιώνει, στην πραγματικότητα, την παραγωγικότητα στον προγραμματισμό αποτελεί σημαντικό προμήνυμα για τις προοπτικές μιας επανάστασης παραγωγικότητας από την τεχνητή νοημοσύνη που θα επηρεάσει την υπόλοιπη οικονομία - το οικονομικό όνειρο που τροφοδοτεί τις πρωτοφανείς επενδύσεις δισεκατομμυρίωσν σε εταιρείες τεχνητής νοημοσύνης. Δεν είναι η μόνη παράλογη πρόβλεψη που έχει κάνει ο Amodei. Έχει ισχυριστεί στο παρελθόν ότι η τεχνητή νοημοσύνη ανθρώπινου επιπέδου θα λύσει κάποια μέρα την πλειονότητα των κοινωνικών προβλημάτων, συμπεριλαμβανομένων "σχεδόν όλων" των φυσικών λοιμώξεων, των ψυχολογικών ασθενειών, της κλιματικής αλλαγής και της παγκόσμιας ανισότητας.
- 42 σχόλια
-
- 7
-
-
-
- Anthropic
- τεχνητή νοημοσύνη
-
(και 1 περισσότερα)
Ετικέτα με:
-
Το FBI δημοσίευσε σήμερα στο X δύο θολές φωτογραφίες ενός υπόπτου για την επίθεση κατά του ακτιβιστή της δεξιάς Charlie Kirk, με χρήστες να απαντούν αμέσως με εκδοχές "βελτιωμένες" από AI. Πολλοί χρήστες απάντησαν σχεδόν αμέσως με εικόνες που είχαν "ενισχυθεί" μέσω τεχνητής νοημοσύνης, μετατρέποντας τις πιξελοποιημένες εικόνες παρακολούθησης σε ευκρινείς, υψηλής ανάλυσης φωτογραφίες. Ωστόσο, τα εργαλεία τεχνητής νοημοσύνης δεν αποκαλύπτουν κρυφές λεπτομέρειες σε μια θολή εικόνα - αντίθετα, συμπεραίνουν τι θα μπορούσε να υπάρχει εκεί, μια συνθήκη που πολλοιί αγνοούν. Τα συγκεκριμένα εργαλεία έχουν ιστορικό εμφάνισης στοιχείων που στην πραγματικότητα δεν υπάρχουν. Πολλές παραλλαγές φωτογραφιών που δημιουργήθηκαν με τεχνητή νοημοσύνη αναρτήθηκαν κάτω από τις αρχικές εικόνες. Κάποιες φαίνεται να δημιουργήθηκαν με το Grok του ίδιου του X, ενώ άλλες με εργαλεία όπως το ChatGPT. Οι εικόνες ποικίλλουν σε αληθοφάνεια, αν και ορισμένες έχουν προφανώς εσφαλμένα στοιχεία, όπως μια "απόδοση κειμένου βασισμένη σε AI" που δείχνει ένα εντελώς διαφορετικό πουκάμισο και ένα πηγούνι που δεν έχει σχέση με την πραγματικότητα. Οι εικόνες υποτίθεται ότι αποσκοπούν στο να βοηθήσουν τους ανθρώπους να εντοπίσουν τον ύποπτο, αν και λειτουργούν επίσης ως τρόποι προσέλκυσης likes και αναδημοσιεύσεων. Είναι όμως απίθανο οποιαδήποτε από αυτές τις εικόνες να είναι πιο χρήσιμη από τις φωτογραφίες του FBI. Σε προηγούμενα περιστατικά, η ενίσχυση μέσω τεχνητής νοημοσύνης έχει κάνει πράγματα όπως την "αποπιξελοποίηση" μιας εικόνας χαμηλής ανάλυσης του Προέδρου, Barack Obama μετατρέποντάς τον σε λευκό άνδρα και προσθέτοντας μια ανύπαρκτη προεξοχή στο κεφάλι του Προέδρου Donald Trump. Η τεχνητή νοημοσύνη προεκτείνει τα δεδομένα από μια υπάρχουσα εικόνα για να συμπληρώσει κενά. Ενώ αυτό μπορεί να είναι χρήσιμο υπό ορισμένες συνθήκες, σίγουρα δεν θα πρέπει να αντιμετωπίζεται ως αδιάσειστο αποδεικτικό στοιχείο σε μια αναζήτηση υπόπτου. Όπως πολλοί αναφέρουν, καθώς η τεχνολογία συνεχίζει να εξελίσσεται, είναι σημαντικό να διατηρούμε μια κριτική στάση απέναντι στις δυνατότητες και τους περιορισμούς της, ιδιαίτερα όταν πρόκειται για ζητήματα δημόσιας ασφάλειας και εγκληματικών ερευνών. Ακολουθεί η αρχική ανάρτηση του FBI, για αναφορά: Και παρακάτω είναι μερικά παραδείγματα απόπειρων «βελτιώσεων» από χρήστες των Social media όπως τα συγκέντρωσε η ιστοσελίδα The Verge Διαβάστε ολόκληρο το άρθρο
-
Πολλοί χρήστες απάντησαν σχεδόν αμέσως με εικόνες που είχαν "ενισχυθεί" μέσω τεχνητής νοημοσύνης, μετατρέποντας τις πιξελοποιημένες εικόνες παρακολούθησης σε ευκρινείς, υψηλής ανάλυσης φωτογραφίες. Ωστόσο, τα εργαλεία τεχνητής νοημοσύνης δεν αποκαλύπτουν κρυφές λεπτομέρειες σε μια θολή εικόνα - αντίθετα, συμπεραίνουν τι θα μπορούσε να υπάρχει εκεί, μια συνθήκη που πολλοιί αγνοούν. Τα συγκεκριμένα εργαλεία έχουν ιστορικό εμφάνισης στοιχείων που στην πραγματικότητα δεν υπάρχουν. Πολλές παραλλαγές φωτογραφιών που δημιουργήθηκαν με τεχνητή νοημοσύνη αναρτήθηκαν κάτω από τις αρχικές εικόνες. Κάποιες φαίνεται να δημιουργήθηκαν με το Grok του ίδιου του X, ενώ άλλες με εργαλεία όπως το ChatGPT. Οι εικόνες ποικίλλουν σε αληθοφάνεια, αν και ορισμένες έχουν προφανώς εσφαλμένα στοιχεία, όπως μια "απόδοση κειμένου βασισμένη σε AI" που δείχνει ένα εντελώς διαφορετικό πουκάμισο και ένα πηγούνι που δεν έχει σχέση με την πραγματικότητα. Οι εικόνες υποτίθεται ότι αποσκοπούν στο να βοηθήσουν τους ανθρώπους να εντοπίσουν τον ύποπτο, αν και λειτουργούν επίσης ως τρόποι προσέλκυσης likes και αναδημοσιεύσεων. Είναι όμως απίθανο οποιαδήποτε από αυτές τις εικόνες να είναι πιο χρήσιμη από τις φωτογραφίες του FBI. Σε προηγούμενα περιστατικά, η ενίσχυση μέσω τεχνητής νοημοσύνης έχει κάνει πράγματα όπως την "αποπιξελοποίηση" μιας εικόνας χαμηλής ανάλυσης του Προέδρου, Barack Obama μετατρέποντάς τον σε λευκό άνδρα και προσθέτοντας μια ανύπαρκτη προεξοχή στο κεφάλι του Προέδρου Donald Trump. Η τεχνητή νοημοσύνη προεκτείνει τα δεδομένα από μια υπάρχουσα εικόνα για να συμπληρώσει κενά. Ενώ αυτό μπορεί να είναι χρήσιμο υπό ορισμένες συνθήκες, σίγουρα δεν θα πρέπει να αντιμετωπίζεται ως αδιάσειστο αποδεικτικό στοιχείο σε μια αναζήτηση υπόπτου. Όπως πολλοί αναφέρουν, καθώς η τεχνολογία συνεχίζει να εξελίσσεται, είναι σημαντικό να διατηρούμε μια κριτική στάση απέναντι στις δυνατότητες και τους περιορισμούς της, ιδιαίτερα όταν πρόκειται για ζητήματα δημόσιας ασφάλειας και εγκληματικών ερευνών. Ακολουθεί η αρχική ανάρτηση του FBI, για αναφορά: Και παρακάτω είναι μερικά παραδείγματα απόπειρων «βελτιώσεων» από χρήστες των Social media όπως τα συγκέντρωσε η ιστοσελίδα The Verge
-
Η Ελβετία εισέρχεται στον αγώνα της τεχνητής νοημοσύνης με την παρουσίαση του εθνικού Μοντέλου Μεγάλης Γλώσσας (LLM) Apertus, ως εναλλακτική στα ChatGPT, Llama και DeepSeek. Σχεδιασμένο από κορυφαία ελβετικά πανεπιστήμια, το Apertus LLM είναι συγκρίσιμο με το μοντέλο Llama 3 της Meta από το 2024. Σύμφωνα με τους ερευνητές, δεν προσπαθούν να ανταγωνιστούν τους προϋπολογισμούς δισεκατομμυρίων δολαρίων των πρωτοπόρων των ΗΠΑ. Αντίθετα, θυσιάζουν τα τελευταία εντυπωσιακά χαρακτηριστικά που απευθύνονται σε γενικούς χρήστες, προς όφελος ενός ασφαλέστερου και πιο προσβάσιμου συστήματος τεχνητής νοημοσύνης για επιστημονικούς ερευνητές και επιχειρήσεις. "Στοχεύουμε να παρέχουμε ένα πρότυπο για το πώς μπορεί να αναπτυχθεί ένα αξιόπιστο, κυρίαρχο και συμπεριληπτικό μοντέλο τεχνητής νοημοσύνης", δήλωσε ο Martin Jaggi, καθηγητής μηχανικής μάθησης στο Ελβετικό Ομοσπονδιακό Ινστιτούτο Τεχνολογίας της Λωζάνης EPFL. Από την κυκλοφορία του ChatGPT της OpenAI το 2022, ο φρενήρης ρυθμός καινοτομίας στην τεχνητή νοημοσύνη έχει οδηγήσει κορυφαίες εταιρείες, όπως η Anthropic, να κυκλοφορούν πολλά LLMs κάθε χρόνο. Εκτός των ΗΠΑ, οι κινεζικές πλατφόρμες DeepSeek και Qwen και τα μοντέλα της γαλλικής Mistral έχουν διευρύνει τις επιλογές για τους χρήστες τεχνητής νοημοσύνης. Ωστόσο, ο αγώνας για την κυριαρχία στην τεχνητή νοημοσύνη έχει επίσης αφήσει μια σειρά από προβλήματα: μηχανές που παραισθάνονται ή μεγεθύνουν την ανθρώπινη προκατάληψη και έναν αυξανόμενο κατάλογο αγωγών παραβίασης πνευματικών δικαιωμάτων για το υλικό που χρησιμοποιούν οι εταιρείες για την εκπαίδευση των LLMs τους. Το Apertus (από τη λατινική λέξη που σημαίνει "ανοιχτό") δεν αφήνει τίποτα στη φαντασία. Υπόσχεται ότι κάθε εξάρτημα είναι ανοικτό για δημόσιο έλεγχο, μαζί με το εγχειρίδιο σχεδιασμού και τα master prompts του. Αυτό αποσκοπεί στην έμπνευση δημόσιας εμπιστοσύνης και στον μετριασμό των ανησυχιών σχετικά με την πιθανή αρνητική πλευρά της τεχνητής νοημοσύνης. Σύμφωνα με τον Leandro von Werra, επικεφαλής έρευνας στην κοινότητα ανοιχτού κώδικα τεχνητής νοημοσύνης Hugging Face, το Apertus είναι ένα από τα πιο φιλόδοξα μοντέλα ανοιχτού κώδικα μέχρι σήμερα. "Δεν είναι εντελώς μοναδικό, αλλά εξακολουθεί να είναι πρωτοπόρο δεδομένης της κλίμακας και της υπολογιστικής ισχύος που χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου", δήλωσε στο Swissinfo. Ερευνητές, προγραμματιστές, startups και ο δημόσιος τομέας μπορούν να κατεβάσουν ένα αντίγραφο του Apertus στους δικούς τους διακομιστές για να δημιουργήσουν έργα. Αυτή η προσέγγιση επιτρέπει στους χρήστες να διατηρούν τον έλεγχο των δεδομένων τους. Οι ελβετικές βιομηχανικές ομάδες έχουν υποδεχτεί θετικά την εγχώρια πρωτοβουλία τεχνητής νοημοσύνης, ιδιαίτερα την εστίασή της στην ασφάλεια δεδομένων. Ωστόσο, προειδοποιούν ότι θα αντιμετωπίσει έντονο ανταγωνισμό για εμπορική προσοχή από μια αυξανόμενη σειρά ισχυρών διεθνών ανταγωνιστών. Η Ένωση Ελβετών Τραπεζιτών πιστεύει ότι ένα εγχώριο LLM έχει "μεγάλες μακροπρόθεσμες δυνατότητες" για τον χρηματοπιστωτικό κλάδο, ειδικά δεδομένης της ανάγκης συμμόρφωσης με τους τοπικούς νόμους προστασίας δεδομένων και τραπεζικού απορρήτου. Ωστόσο, ορισμένες ελβετικές τράπεζες ήδη αναπτύσσουν έργα τεχνητής νοημοσύνης χρησιμοποιώντας άλλα LLMs, όπως η UBS που συνεργάζεται με την OpenAI και τη Microsoft. Όπως επισημαίνει ο Adam Gontarz, επικεφαλής ψηφιοποίησης, καινοτομίας και τεχνολογίας της Swissmem, "Η εμπειρία δείχνει ότι δεν υπάρχει μία λύση που να ταιριάζει σε όλες τις ανάγκες. Κάθε έργο πρέπει να λαμβάνει υπόψη τις συγκεκριμένες συνθήκες και απαιτήσεις της επιχείρησης. Σε ορισμένες περιπτώσεις, οι διεθνείς λύσεις μπορεί επίσης να είναι η πιο αποτελεσματική επιλογή." Διαβάστε ολόκληρο το άρθρο
-
Σχεδιασμένο από κορυφαία ελβετικά πανεπιστήμια, το Apertus LLM είναι συγκρίσιμο με το μοντέλο Llama 3 της Meta από το 2024. Σύμφωνα με τους ερευνητές, δεν προσπαθούν να ανταγωνιστούν τους προϋπολογισμούς δισεκατομμυρίων δολαρίων των πρωτοπόρων των ΗΠΑ. Αντίθετα, θυσιάζουν τα τελευταία εντυπωσιακά χαρακτηριστικά που απευθύνονται σε γενικούς χρήστες, προς όφελος ενός ασφαλέστερου και πιο προσβάσιμου συστήματος τεχνητής νοημοσύνης για επιστημονικούς ερευνητές και επιχειρήσεις. "Στοχεύουμε να παρέχουμε ένα πρότυπο για το πώς μπορεί να αναπτυχθεί ένα αξιόπιστο, κυρίαρχο και συμπεριληπτικό μοντέλο τεχνητής νοημοσύνης", δήλωσε ο Martin Jaggi, καθηγητής μηχανικής μάθησης στο Ελβετικό Ομοσπονδιακό Ινστιτούτο Τεχνολογίας της Λωζάνης EPFL. Από την κυκλοφορία του ChatGPT της OpenAI το 2022, ο φρενήρης ρυθμός καινοτομίας στην τεχνητή νοημοσύνη έχει οδηγήσει κορυφαίες εταιρείες, όπως η Anthropic, να κυκλοφορούν πολλά LLMs κάθε χρόνο. Εκτός των ΗΠΑ, οι κινεζικές πλατφόρμες DeepSeek και Qwen και τα μοντέλα της γαλλικής Mistral έχουν διευρύνει τις επιλογές για τους χρήστες τεχνητής νοημοσύνης. Ωστόσο, ο αγώνας για την κυριαρχία στην τεχνητή νοημοσύνη έχει επίσης αφήσει μια σειρά από προβλήματα: μηχανές που παραισθάνονται ή μεγεθύνουν την ανθρώπινη προκατάληψη και έναν αυξανόμενο κατάλογο αγωγών παραβίασης πνευματικών δικαιωμάτων για το υλικό που χρησιμοποιούν οι εταιρείες για την εκπαίδευση των LLMs τους. Το Apertus (από τη λατινική λέξη που σημαίνει "ανοιχτό") δεν αφήνει τίποτα στη φαντασία. Υπόσχεται ότι κάθε εξάρτημα είναι ανοικτό για δημόσιο έλεγχο, μαζί με το εγχειρίδιο σχεδιασμού και τα master prompts του. Αυτό αποσκοπεί στην έμπνευση δημόσιας εμπιστοσύνης και στον μετριασμό των ανησυχιών σχετικά με την πιθανή αρνητική πλευρά της τεχνητής νοημοσύνης. Σύμφωνα με τον Leandro von Werra, επικεφαλής έρευνας στην κοινότητα ανοιχτού κώδικα τεχνητής νοημοσύνης Hugging Face, το Apertus είναι ένα από τα πιο φιλόδοξα μοντέλα ανοιχτού κώδικα μέχρι σήμερα. "Δεν είναι εντελώς μοναδικό, αλλά εξακολουθεί να είναι πρωτοπόρο δεδομένης της κλίμακας και της υπολογιστικής ισχύος που χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου", δήλωσε στο Swissinfo. Ερευνητές, προγραμματιστές, startups και ο δημόσιος τομέας μπορούν να κατεβάσουν ένα αντίγραφο του Apertus στους δικούς τους διακομιστές για να δημιουργήσουν έργα. Αυτή η προσέγγιση επιτρέπει στους χρήστες να διατηρούν τον έλεγχο των δεδομένων τους. Οι ελβετικές βιομηχανικές ομάδες έχουν υποδεχτεί θετικά την εγχώρια πρωτοβουλία τεχνητής νοημοσύνης, ιδιαίτερα την εστίασή της στην ασφάλεια δεδομένων. Ωστόσο, προειδοποιούν ότι θα αντιμετωπίσει έντονο ανταγωνισμό για εμπορική προσοχή από μια αυξανόμενη σειρά ισχυρών διεθνών ανταγωνιστών. Η Ένωση Ελβετών Τραπεζιτών πιστεύει ότι ένα εγχώριο LLM έχει "μεγάλες μακροπρόθεσμες δυνατότητες" για τον χρηματοπιστωτικό κλάδο, ειδικά δεδομένης της ανάγκης συμμόρφωσης με τους τοπικούς νόμους προστασίας δεδομένων και τραπεζικού απορρήτου. Ωστόσο, ορισμένες ελβετικές τράπεζες ήδη αναπτύσσουν έργα τεχνητής νοημοσύνης χρησιμοποιώντας άλλα LLMs, όπως η UBS που συνεργάζεται με την OpenAI και τη Microsoft. Όπως επισημαίνει ο Adam Gontarz, επικεφαλής ψηφιοποίησης, καινοτομίας και τεχνολογίας της Swissmem, "Η εμπειρία δείχνει ότι δεν υπάρχει μία λύση που να ταιριάζει σε όλες τις ανάγκες. Κάθε έργο πρέπει να λαμβάνει υπόψη τις συγκεκριμένες συνθήκες και απαιτήσεις της επιχείρησης. Σε ορισμένες περιπτώσεις, οι διεθνείς λύσεις μπορεί επίσης να είναι η πιο αποτελεσματική επιλογή."
-
Η εταιρεία τεχνητής νοημοσύνης Anthropic συμφώνησε να καταβάλει 1,5 δισεκατομμύρια δολάρια σε συγγραφείς των οποίων τα έργα χρησιμοποίησε για την εκπαίδευση των μοντέλων της. Οι συγγραφείς επιβεβαίωσαν ότι ο διακανονισμός "πιστεύεται ότι είναι η μεγαλύτερη δημοσίως αποζημίωση στην ιστορία της αμερικανικής δικαστικής διαμάχης για πνευματικά δικαιώματα". Ο διακανονισμός καλύπτει 500.000 έργα που η Anthropic αντέγραψε παράνομα για την εκπαίδευση του LLM της, του Claude και εάν εγκριθεί από το δικαστήριο, κάθε συγγραφέας θα λάβει 3.000 δολάρια ανά έργο που η Anthropic χρησιμοποίησε. Όπως αναφέρεται στο δελτίο τύπου, "ανάλογα με τον αριθμό των αιτήσεων που θα υποβληθούν, το τελικό ποσό ανά έργο θα μπορούσε να είναι υψηλότερο". Η Anthropic έχει ήδη συμφωνήσει με τους όρους του διακανονισμού, αλλά το δικαστήριο πρέπει να τους εγκρίνει πριν οριστικοποιηθεί. Η προκαταρκτική έγκριση μπορεί να δοθεί αυτή την εβδομάδα, ενώ η τελική απόφαση μπορεί να καθυστερήσει μέχρι το 2026. Ο Justin Nelson, δικηγόρος που εκπροσωπεί τους τρεις συγγραφείς που αρχικά προσέφυγαν στη δικαιοσύνη για να ξεκινήσει η συλλογική αγωγή—Andrea Bartz, Kirk Wallace Johnson και Charles Graeber—επιβεβαίωσε ότι εάν εγκριθεί αυτός ο "πρώτος στο είδος του" διακανονισμός "στην εποχή της ΤΝ", οι πληρωμές θα ξεπεράσουν "κατά πολύ" "οποιαδήποτε άλλη γνωστή αποζημίωση για πνευματικά δικαιώματα". "Θα παρέχει ουσιαστική αποζημίωση για κάθε έργο της κατηγορίας και θέτει ένα προηγούμενο που απαιτεί από τις εταιρείες ΤΝ να πληρώνουν τους κατόχους πνευματικών δικαιωμάτων", δήλωσε ο Nelson. "Ο διακανονισμός στέλνει ένα ισχυρό μήνυμα τόσο στις εταιρείες ΤΝ όσο και στους δημιουργούς ότι η λήψη έργων με πνευματικά δικαιώματα που έγιναν από πειρατικούς ιστότοπους είναι λάθος." Ομάδες που εκπροσωπούν συγγραφείς γιόρτασαν τον διακανονισμό την Παρασκευή. Η CEO του Authors' Guild, Mary Rasenberger, δήλωσε ότι ήταν "ένα εξαιρετικό αποτέλεσμα για τους συγγραφείς, τους εκδότες και γενικά τους κατόχους δικαιωμάτων." Ίσως το πιο σημαντικό, ο διακανονισμός δείχνει "ότι υπάρχουν σοβαρές συνέπειες όταν" οι εταιρείες "αντιγράφουν παράνομα τα έργα των συγγραφέων για την εκπαίδευση της ΤΝ τους, κλέβοντας από εκείνους που έχουν τη μικρότερη οικονομική δυνατότητα", δήλωσε η Rasenberger. Η Maria Pallante, πρόεδρος και CEO της Ένωσης Αμερικανών Εκδοτών, συμφώνησε ότι ο διακανονισμός ήταν "επωφελής" για τους ενδιαφερόμενους "πέρα από τους οικονομικούς όρους". Αξίζει να σημειωθεί ότι η συμφωνία δεν στερεί από τους συγγραφείς τα δικαιώματά τους για έργα που δεν περιλαμβάνονται στην υπόθεση, ούτε προστατεύει την Anthropic από τυχόν μελλοντικές ή παλαιότερες κατηγορίες για πιθανή παραβίαση. Η Aparna Sridhar, αναπληρώτρια γενική σύμβουλος της Anthropic, δήλωσε στο Ars, τονίζοντας ότι το δικαστήριο διαπίστωσε ότι "η προσέγγιση της Anthropic στην εκπαίδευση μοντέλων ΤΝ αποτελεί θεμιτή χρήση". "Ο σημερινός διακανονισμός, εάν εγκριθεί, θα επιλύσει τις υπόλοιπες παλαιότερες αξιώσεις των εναγόντων", δήλωσε η Sridhar. "Παραμένουμε προσηλωμένοι στην ανάπτυξη ασφαλών συστημάτων ΤΝ που βοηθούν ανθρώπους και οργανισμούς να επεκτείνουν τις δυνατότητές τους, να προωθήσουν την επιστημονική ανακάλυψη και να επιλύσουν σύνθετα προβλήματα." Διαβάστε ολόκληρο το άρθρο
-
Οι συγγραφείς επιβεβαίωσαν ότι ο διακανονισμός "πιστεύεται ότι είναι η μεγαλύτερη δημοσίως αποζημίωση στην ιστορία της αμερικανικής δικαστικής διαμάχης για πνευματικά δικαιώματα". Ο διακανονισμός καλύπτει 500.000 έργα που η Anthropic αντέγραψε παράνομα για την εκπαίδευση του LLM της, του Claude και εάν εγκριθεί από το δικαστήριο, κάθε συγγραφέας θα λάβει 3.000 δολάρια ανά έργο που η Anthropic χρησιμοποίησε. Όπως αναφέρεται στο δελτίο τύπου, "ανάλογα με τον αριθμό των αιτήσεων που θα υποβληθούν, το τελικό ποσό ανά έργο θα μπορούσε να είναι υψηλότερο". Η Anthropic έχει ήδη συμφωνήσει με τους όρους του διακανονισμού, αλλά το δικαστήριο πρέπει να τους εγκρίνει πριν οριστικοποιηθεί. Η προκαταρκτική έγκριση μπορεί να δοθεί αυτή την εβδομάδα, ενώ η τελική απόφαση μπορεί να καθυστερήσει μέχρι το 2026. Ο Justin Nelson, δικηγόρος που εκπροσωπεί τους τρεις συγγραφείς που αρχικά προσέφυγαν στη δικαιοσύνη για να ξεκινήσει η συλλογική αγωγή—Andrea Bartz, Kirk Wallace Johnson και Charles Graeber—επιβεβαίωσε ότι εάν εγκριθεί αυτός ο "πρώτος στο είδος του" διακανονισμός "στην εποχή της ΤΝ", οι πληρωμές θα ξεπεράσουν "κατά πολύ" "οποιαδήποτε άλλη γνωστή αποζημίωση για πνευματικά δικαιώματα". "Θα παρέχει ουσιαστική αποζημίωση για κάθε έργο της κατηγορίας και θέτει ένα προηγούμενο που απαιτεί από τις εταιρείες ΤΝ να πληρώνουν τους κατόχους πνευματικών δικαιωμάτων", δήλωσε ο Nelson. "Ο διακανονισμός στέλνει ένα ισχυρό μήνυμα τόσο στις εταιρείες ΤΝ όσο και στους δημιουργούς ότι η λήψη έργων με πνευματικά δικαιώματα που έγιναν από πειρατικούς ιστότοπους είναι λάθος." Ομάδες που εκπροσωπούν συγγραφείς γιόρτασαν τον διακανονισμό την Παρασκευή. Η CEO του Authors' Guild, Mary Rasenberger, δήλωσε ότι ήταν "ένα εξαιρετικό αποτέλεσμα για τους συγγραφείς, τους εκδότες και γενικά τους κατόχους δικαιωμάτων." Ίσως το πιο σημαντικό, ο διακανονισμός δείχνει "ότι υπάρχουν σοβαρές συνέπειες όταν" οι εταιρείες "αντιγράφουν παράνομα τα έργα των συγγραφέων για την εκπαίδευση της ΤΝ τους, κλέβοντας από εκείνους που έχουν τη μικρότερη οικονομική δυνατότητα", δήλωσε η Rasenberger. Η Maria Pallante, πρόεδρος και CEO της Ένωσης Αμερικανών Εκδοτών, συμφώνησε ότι ο διακανονισμός ήταν "επωφελής" για τους ενδιαφερόμενους "πέρα από τους οικονομικούς όρους". Αξίζει να σημειωθεί ότι η συμφωνία δεν στερεί από τους συγγραφείς τα δικαιώματά τους για έργα που δεν περιλαμβάνονται στην υπόθεση, ούτε προστατεύει την Anthropic από τυχόν μελλοντικές ή παλαιότερες κατηγορίες για πιθανή παραβίαση. Η Aparna Sridhar, αναπληρώτρια γενική σύμβουλος της Anthropic, δήλωσε στο Ars, τονίζοντας ότι το δικαστήριο διαπίστωσε ότι "η προσέγγιση της Anthropic στην εκπαίδευση μοντέλων ΤΝ αποτελεί θεμιτή χρήση". "Ο σημερινός διακανονισμός, εάν εγκριθεί, θα επιλύσει τις υπόλοιπες παλαιότερες αξιώσεις των εναγόντων", δήλωσε η Sridhar. "Παραμένουμε προσηλωμένοι στην ανάπτυξη ασφαλών συστημάτων ΤΝ που βοηθούν ανθρώπους και οργανισμούς να επεκτείνουν τις δυνατότητές τους, να προωθήσουν την επιστημονική ανακάλυψη και να επιλύσουν σύνθετα προβλήματα."
-
Η Ιαπωνία κυκλοφόρησε ένα βίντεο δημιουργημένο από τεχνητή νοημοσύνη, το οποίο απεικονίζει την έκρηξη του όρους Φούτζι, προκειμένου να προειδοποιήσει τους κατοίκους του Τόκιο για τον κίνδυνο μιας πιθανής καταστροφής. Το βίντεο παρουσιάζει την έκρηξη του ηφαιστείου με μια στήλη καπνού να υψώνεται και στη συνέχεια τέφρα να εξαπλώνεται σε απόσταση 100 χλμ. μέχρι το Τόκιο. Στη συνέχεια, εμφανίζει προβλήματα όπως διακοπές ρεύματος και δυσκολίες στη διανομή τροφίμων ως συνέπειες της έκρηξης. Με αυτόν τον τρόπο, η Ιαπωνία επιδιώκει να ενημερώσει το κοινό για τις πιθανές επιπτώσεις μιας τέτοιας φυσικής καταστροφής, χρησιμοποιώντας σύγχρονα εργαλεία τεχνολογίας. Η χρήση τεχνητής νοημοσύνης σε τέτοια σενάρια αποδεικνύεται ιδιαίτερα χρήσιμη, καθώς επιτρέπει την οπτικοποίηση ακραίων καταστάσεων με ρεαλιστικό τρόπο. Στην περίπτωση αυτή, το βίντεο λειτουργεί ως μέσο ευαισθητοποίησης, ώστε οι πολίτες να αντιληφθούν τη σοβαρότητα των συνεπειών και να προετοιμαστούν κατάλληλα. Η Ιαπωνία, γνωρίζοντας ότι το όρος Φούτζι παραμένει ανενεργό για μεγάλο χρονικό διάστημα, θέλει να διασφαλίσει ότι όλοι είναι έτοιμοι για οποιαδήποτε εξέλιξη, με την τεχνολογία να συμβάλει στην πρόληψη και την ενημέρωση σε θέματα φυσικών κινδύνων. Πέρα από την τοπική σημασία, η πρωτοβουλία αυτή ανοίγει δρόμους για ευρύτερη εφαρμογή της τεχνητής νοημοσύνης σε στρατηγικές προετοιμασίας για καταστροφές. Άλλες χώρες θα μπορούσαν να υιοθετήσουν παρόμοιες μεθόδους, χρησιμοποιώντας βίντεο δημιουργημένα από AI για να παρουσιάσουν σενάρια δυσάρεστων καταστάσεων. Παρόμοιες κινήσεις θα παρείχαν σημαντική βοήθεια στο να γίνουν οι πολίτες πιο συνειδητοποιημένοι και να μην υποτιμούν πιθανούς κινδύνους, ιδιαίτερα σε θέματα ασφάλειας. Η προσβασιμότητα των εργαλείων δημιουργίας βίντεο μέσω τεχνητής νοημοσύνης αυξάνεται συνεχώς, κάνοντας τέτοιες δημιουργίες διαθέσιμες σε όλους. Για παράδειγμα, το Google Gemini προσφέρει τη δυνατότητα δοκιμής του Veo 3, ενός προϊόντος που μετατρέπει κείμενο σε βίντεο διάρκειας οκτώ δευτερολέπτων. Παρομοίως, το Grok επιτρέπει τη χρήση του Grok Imagine για παραγωγή βίντεο από κείμενο ή εικόνες, με δυνατότητα ελέγχου του τόνου. Αυτή η λειτουργία είναι δωρεάν για όλους τους χρήστες σε iOS και Android. Με τέτοια εργαλεία, οποιοσδήποτε μπορεί να παράγει περιεχόμενο παρόμοιο με αυτό που χρησιμοποίησε η Ιαπωνία, χωρίς να απαιτούνται προχωρημένες γνώσεις, με το κόστος να παραμένει σε εξαιρετικά χαμηλά επίπεδα. Παλαιότερα, χαρακτηριστικά όπως η παραγωγή φωτογραφιών και βίντεο ήταν διαθέσιμα μόνο σε όσους πλήρωναν για premium συνδρομές σε AI πλατφόρμες. Τώρα, εταιρείες ανοίγουν αυτές τις δυνατότητες σε όλους, ενισχύοντας τη δημοκρατικοποίηση της τεχνολογίας. Αυτό σημαίνει ότι η δημιουργία εκπαιδευτικού ή προειδοποιητικού υλικού γίνεται πιο εύκολη, επιτρέποντας σε οργανισμούς και άτομα να επικοινωνούν μηνύματα με αποτελεσματικό τρόπο. Η περίπτωση της Ιαπωνίας αποτελεί παράδειγμα πώς η AI μπορεί να μετατρέψει αφηρημένες προειδοποιήσεις σε ζωντανές απεικονίσεις, ενθαρρύνοντας την προετοιμασία. Όπως αναφέρεται και στο βίντεο, το όρος Φούτζι δεν έχει εκραγεί για πάνω από 300 χρόνια ενώ οι επιστήμονες δεν αναφέρουν οποιοδήποτε ανησυχητική ένδειξη. Διαβάστε ολόκληρο το άρθρο
- 15 απαντήσεις
-
- τεχνητή νοημοσύνη
- Veo
-
(και 2 περισσότερα)
Ετικέτα με:
-
Το βίντεο παρουσιάζει την έκρηξη του ηφαιστείου με μια στήλη καπνού να υψώνεται και στη συνέχεια τέφρα να εξαπλώνεται σε απόσταση 100 χλμ. μέχρι το Τόκιο. Στη συνέχεια, εμφανίζει προβλήματα όπως διακοπές ρεύματος και δυσκολίες στη διανομή τροφίμων ως συνέπειες της έκρηξης. Με αυτόν τον τρόπο, η Ιαπωνία επιδιώκει να ενημερώσει το κοινό για τις πιθανές επιπτώσεις μιας τέτοιας φυσικής καταστροφής, χρησιμοποιώντας σύγχρονα εργαλεία τεχνολογίας. Η χρήση τεχνητής νοημοσύνης σε τέτοια σενάρια αποδεικνύεται ιδιαίτερα χρήσιμη, καθώς επιτρέπει την οπτικοποίηση ακραίων καταστάσεων με ρεαλιστικό τρόπο. Στην περίπτωση αυτή, το βίντεο λειτουργεί ως μέσο ευαισθητοποίησης, ώστε οι πολίτες να αντιληφθούν τη σοβαρότητα των συνεπειών και να προετοιμαστούν κατάλληλα. Η Ιαπωνία, γνωρίζοντας ότι το όρος Φούτζι παραμένει ανενεργό για μεγάλο χρονικό διάστημα, θέλει να διασφαλίσει ότι όλοι είναι έτοιμοι για οποιαδήποτε εξέλιξη, με την τεχνολογία να συμβάλει στην πρόληψη και την ενημέρωση σε θέματα φυσικών κινδύνων. Πέρα από την τοπική σημασία, η πρωτοβουλία αυτή ανοίγει δρόμους για ευρύτερη εφαρμογή της τεχνητής νοημοσύνης σε στρατηγικές προετοιμασίας για καταστροφές. Άλλες χώρες θα μπορούσαν να υιοθετήσουν παρόμοιες μεθόδους, χρησιμοποιώντας βίντεο δημιουργημένα από AI για να παρουσιάσουν σενάρια δυσάρεστων καταστάσεων. Παρόμοιες κινήσεις θα παρείχαν σημαντική βοήθεια στο να γίνουν οι πολίτες πιο συνειδητοποιημένοι και να μην υποτιμούν πιθανούς κινδύνους, ιδιαίτερα σε θέματα ασφάλειας. Η προσβασιμότητα των εργαλείων δημιουργίας βίντεο μέσω τεχνητής νοημοσύνης αυξάνεται συνεχώς, κάνοντας τέτοιες δημιουργίες διαθέσιμες σε όλους. Για παράδειγμα, το Google Gemini προσφέρει τη δυνατότητα δοκιμής του Veo 3, ενός προϊόντος που μετατρέπει κείμενο σε βίντεο διάρκειας οκτώ δευτερολέπτων. Παρομοίως, το Grok επιτρέπει τη χρήση του Grok Imagine για παραγωγή βίντεο από κείμενο ή εικόνες, με δυνατότητα ελέγχου του τόνου. Αυτή η λειτουργία είναι δωρεάν για όλους τους χρήστες σε iOS και Android. Με τέτοια εργαλεία, οποιοσδήποτε μπορεί να παράγει περιεχόμενο παρόμοιο με αυτό που χρησιμοποίησε η Ιαπωνία, χωρίς να απαιτούνται προχωρημένες γνώσεις, με το κόστος να παραμένει σε εξαιρετικά χαμηλά επίπεδα. Παλαιότερα, χαρακτηριστικά όπως η παραγωγή φωτογραφιών και βίντεο ήταν διαθέσιμα μόνο σε όσους πλήρωναν για premium συνδρομές σε AI πλατφόρμες. Τώρα, εταιρείες ανοίγουν αυτές τις δυνατότητες σε όλους, ενισχύοντας τη δημοκρατικοποίηση της τεχνολογίας. Αυτό σημαίνει ότι η δημιουργία εκπαιδευτικού ή προειδοποιητικού υλικού γίνεται πιο εύκολη, επιτρέποντας σε οργανισμούς και άτομα να επικοινωνούν μηνύματα με αποτελεσματικό τρόπο. Η περίπτωση της Ιαπωνίας αποτελεί παράδειγμα πώς η AI μπορεί να μετατρέψει αφηρημένες προειδοποιήσεις σε ζωντανές απεικονίσεις, ενθαρρύνοντας την προετοιμασία. Όπως αναφέρεται και στο βίντεο, το όρος Φούτζι δεν έχει εκραγεί για πάνω από 300 χρόνια ενώ οι επιστήμονες δεν αναφέρουν οποιοδήποτε ανησυχητική ένδειξη.
- 15 σχόλια
-
- 4
-
-
-
- τεχνητή νοημοσύνη
- Veo
-
(και 2 περισσότερα)
Ετικέτα με:
-
Ο CEO της Apple, Tim Cook, καθησυχάζει τους εργαζομένους για την καθυστερημένη είσοδο της εταιρείας στον τομέα της τεχνητής νοημοσύνης, υποσχόμενος ότι θα ηγηθούν του κλάδου. Ο Tim Cook, διευθύνων σύμβουλος της Apple, φέρεται να έχει λάβει υπόψη τις ανησυχίες των εργαζομένων του σχετικά με την αργή πρόοδο της εταιρείας στον τομέα της τεχνητής νοημοσύνης, διαβεβαιώνοντας ότι θα πετύχουν τον στόχο τους. Σύμφωνα με το Bloomberg, ο Cook είπε στους εργαζομένους ότι η καθυστερημένη είσοδος της Apple στον τομέα της τεχνητής νοημοσύνης δεν θα τους αφήσει πίσω. "Η Apple πρέπει να το κάνει αυτό. Η Apple θα το κάνει αυτό. Είναι κατά κάποιο τρόπο δική μας ευκαιρία. Θα κάνουμε την επένδυση για να το πετύχουμε. Σπάνια είμαστε πρώτοι. Υπήρχε υπολογιστής πριν το Mac, υπήρχε smartphone πριν το iPhone, υπήρχαν πολλά tablet πριν το iPad, υπήρχε MP3 player πριν το iPod", ανέφερε χαρακτηριστικά. Ο Cook δήλωσε ότι η Apple θα εφεύρει τη σύγχρονη έκδοση της "τεχνητής νοημοσύνης στο smartphone" και ότι η εταιρεία θα ηγηθεί οπωσδήποτε του τομέα, αν και ακόμα δεν γνωρίζουμε πώς θα το πετύχει αυτό. Δεν υπάρχει αμφιβολία ότι η εταιρεία βρίσκεται υπό πίεση αυτή τη στιγμή. Παρά τα εξαιρετικά οικονομικά αποτελέσματα, εξακολουθεί να αντιμετωπίζει δυσκολίες λόγω των αμερικανικών δασμών και, το σημαντικότερο, οι ανταγωνιστές προηγούνται στον τομέα της τεχνητής νοημοσύνης. Η Apple είχε σχεδιάσει να παρουσιάσει τη Siri εμπλουτισμένη με το Apple Intelligence, αλλά το όλο project καθυστέρησε, προκαλώντας απογοήτευση. Ο Craig Federighi, Ανώτερος Αντιπρόεδρος Μηχανικής Λογισμικού της Apple, εξήγησε ότι η καθυστέρηση της Siri οφείλεται στην προσέγγιση της εταιρείας να βασίζεται σε δύο ξεχωριστά μοντέλα για εφαρμογές τεχνητής νοημοσύνης (agentic και generative AI), αλλά τώρα, η εταιρεία εργάζεται σε μια νέα "υβριδική αρχιτεκτονική". Προς το παρόν, αναμένουμε τις επόμενες κινήσεις της Apple, αλλά υπάρχουν φήμες για μια πιθανή εξαγορά που θα μπορούσε να επιταχύνει τη διαδικασία, αν και ταυτόχρονα δεν θα παρείχε στην εταιρεία μια εγγενή λύση. Η στάση της Apple απέναντι στην τεχνητή νοημοσύνη έχει διαδραματίσει σημαντικό ρόλο στη συζήτηση για το μέλλον της εταιρείας με την τεχνολογία αυτή, καθώς ο κολοσσός του Cupertino δεν έχει καταφέρει ακόμη να παρουσιάσει ένα σαφές σχέδιο ή μια οριστική πορεία για το τι θα κάνει με την τεχνητή νοημοσύνη. Η εταιρεία αναζητά επιλογές και στρέφεται προς πιθανές εξαγορές ή συνεργασίες, αλλά οι προοπτικές για μια εξ ολοκλήρου εσωτερική λύση είναι ελάχιστες προς το παρόν. Αναλυτές υποστηρίζουν ότι η καινοτομία της Apple στην τεχνητή νοημοσύνη μπορεί να επιτευχθεί μόνο με την εξαγορά της Perplexity. Διαβάστε ολόκληρο το άρθρο
-
Η Google προχωρά σε μια νέα λειτουργία που επιτρέπει στους χρήστες να επιλέγουν τις προτιμώμενες πηγές ειδήσεων για τα αποτελέσματα των αναζητήσεων τους. Η λειτουργία, γνωστή ως Preferred Sources, ξεκίνησε να διατίθεται αρχικά σε χρήστες στις Ηνωμένες Πολιτείες και την Ινδία, σύμφωνα με ανακοίνωση της εταιρείας μέσω του επίσημου blog. Οι χρήστες μπορούν πλέον να ορίζουν συγκεκριμένα μέσα ενημέρωσης, όπως εθνικές εφημερίδες, τοπικούς ιστότοπους ή εξειδικευμένα blogs, ώστε να εμφανίζονται με προτεραιότητα στα αποτελέσματα. Με αυτόν τον τρόπο, το σύστημα της Google προσαρμόζει το περιεχόμενο, εστιάζοντας σε άρθρα από τις επιλεγμένες πηγές του χρήστη. Για να ενεργοποιηθεί η λειτουργία, οι χρήστες που πληρούν τα κριτήρια θα παρατηρήσουν ένα ειδικό εικονίδιο δίπλα στην ενότητα "Κορυφαίες Ιστορίες" κατά την εκτέλεση μιας αναζήτησης. Πατώντας το, ανοίγει ένα μενού όπου μπορούν να ψάξουν και να επιλέξουν τα αγαπημένα τους μέσα. Μετά την επιλογή, τα αποτελέσματα θα περιλαμβάνουν περισσότερο υλικό από αυτές τις πηγές, τόσο στην κύρια ενότητα όσο και σε μια νέα κατηγορία με τίτλο "Από τις πηγές σας". Σύμφωνα με δημοσιεύματα όπως αυτό του The Verge, δεν υπάρχει περιορισμός στον αριθμό των πηγών που μπορεί να προσθέσει κάποιος, δίνοντας ευελιξία στην προσαρμογή. Η εταιρεία παρέχει επίσης εργαλεία στους εκδότες για να προωθήσουν την προσθήκη των ιστότοπών τους στις λίστες των χρηστών. Ένα τέτοιο εργαλείο είναι ένα κουμπί κλήσης σε δράση με την ένδειξη "Προσθέστε ως προτιμώμενη πηγή στην Google", το οποίο μπορεί να ενσωματωθεί σε ιστοσελίδες. Αυτή η κίνηση έρχεται σε μια περίοδο όπου πολλοί εκδότες ανησυχούν για τη μείωση της επισκεψιμότητας από την αναζήτηση της Google, λόγω αλλαγών στον αλγόριθμο και την εισαγωγή τεχνητής νοημοσύνης. Παρά τις αναφορές από μεγάλα μέσα ενημέρωσης για σημαντική πτώση στην κίνηση από συνδέσμους της Google, η εταιρεία αρνείται ότι οι εξελίξεις στην τεχνητή νοημοσύνη και τα AI overviews έχουν αρνητική επίδραση. Επιπλέον, απορρίπτει ισχυρισμούς ότι τα αποτελέσματα αναζήτησης έχουν υποβαθμιστεί λόγω χειραγώγησης SEO ή περιεχομένου που παράγεται από AI. Ωστόσο, η εισαγωγή αυτής της λειτουργίας μπορεί να ερμηνευτεί ως προσπάθεια να δοθεί μεγαλύτερος έλεγχος στους χρήστες, σε απάντηση σε κριτικές για την ποιότητα των αποτελεσμάτων. Στο πλαίσιο αυτό, η δυνατότητα επιλογής πηγών εγείρει ερωτήματα σχετικά με την ενίσχυση προσωπικών απόψεων, καθώς οι χρήστες μπορεί να περιοριστούν σε οικείες φωνές και κανάλια πληροφόρησης. Από την άλλη, προσφέρει μια πιο εξατομικευμένη εμπειρία, βοηθώντας στην πλοήγηση μέσα σε έναν όγκο πληροφοριών. Οι ειδικοί σημειώνουν ότι τέτοιες λειτουργίες ανταποκρίνονται σε γενικότερες τάσεις personalization στα ψηφιακά μέσα, όπου η προσαρμογή βελτιώνει την ικανοποίηση των χρηστών. Εκτός από την εστίαση σε ειδήσεις, η λειτουργία μπορεί να επεκταθεί σε άλλους τομείς, όπως τεχνολογία ή ψυχαγωγία, ανάλογα με τις επιλογές. Οι χρήστες ενθαρρύνονται να πειραματιστούν για να δουν πώς αλλάζει η ροή των αποτελεσμάτων. Σύμφωνα με την Google, η ανάπτυξη βασίστηκε σε σχόλια από δοκιμές, με στόχο τη βελτίωση της σχετικότητας των αποτελεσμάτων. Μια ενδιαφέρουσα πτυχή είναι η ενσωμάτωση με άλλες υπηρεσίες της Google, όπως το Discover, όπου οι προτιμώμενες πηγές μπορεί να επηρεάσουν τις προτάσεις. Για την ώρα η Google δεν έχει γνωστοποιήσει κάποιο χρονοδιάγραμμα επέκτασης των Preferred Sources και στην Ευρώπη. Διαβάστε ολόκληρο το άρθρο
-
Η λειτουργία, γνωστή ως Preferred Sources, ξεκίνησε να διατίθεται αρχικά σε χρήστες στις Ηνωμένες Πολιτείες και την Ινδία, σύμφωνα με ανακοίνωση της εταιρείας μέσω του επίσημου blog. Οι χρήστες μπορούν πλέον να ορίζουν συγκεκριμένα μέσα ενημέρωσης, όπως εθνικές εφημερίδες, τοπικούς ιστότοπους ή εξειδικευμένα blogs, ώστε να εμφανίζονται με προτεραιότητα στα αποτελέσματα. Με αυτόν τον τρόπο, το σύστημα της Google προσαρμόζει το περιεχόμενο, εστιάζοντας σε άρθρα από τις επιλεγμένες πηγές του χρήστη. Για να ενεργοποιηθεί η λειτουργία, οι χρήστες που πληρούν τα κριτήρια θα παρατηρήσουν ένα ειδικό εικονίδιο δίπλα στην ενότητα "Κορυφαίες Ιστορίες" κατά την εκτέλεση μιας αναζήτησης. Πατώντας το, ανοίγει ένα μενού όπου μπορούν να ψάξουν και να επιλέξουν τα αγαπημένα τους μέσα. Μετά την επιλογή, τα αποτελέσματα θα περιλαμβάνουν περισσότερο υλικό από αυτές τις πηγές, τόσο στην κύρια ενότητα όσο και σε μια νέα κατηγορία με τίτλο "Από τις πηγές σας". Σύμφωνα με δημοσιεύματα όπως αυτό του The Verge, δεν υπάρχει περιορισμός στον αριθμό των πηγών που μπορεί να προσθέσει κάποιος, δίνοντας ευελιξία στην προσαρμογή. Η εταιρεία παρέχει επίσης εργαλεία στους εκδότες για να προωθήσουν την προσθήκη των ιστότοπών τους στις λίστες των χρηστών. Ένα τέτοιο εργαλείο είναι ένα κουμπί κλήσης σε δράση με την ένδειξη "Προσθέστε ως προτιμώμενη πηγή στην Google", το οποίο μπορεί να ενσωματωθεί σε ιστοσελίδες. Αυτή η κίνηση έρχεται σε μια περίοδο όπου πολλοί εκδότες ανησυχούν για τη μείωση της επισκεψιμότητας από την αναζήτηση της Google, λόγω αλλαγών στον αλγόριθμο και την εισαγωγή τεχνητής νοημοσύνης. Παρά τις αναφορές από μεγάλα μέσα ενημέρωσης για σημαντική πτώση στην κίνηση από συνδέσμους της Google, η εταιρεία αρνείται ότι οι εξελίξεις στην τεχνητή νοημοσύνη και τα AI overviews έχουν αρνητική επίδραση. Επιπλέον, απορρίπτει ισχυρισμούς ότι τα αποτελέσματα αναζήτησης έχουν υποβαθμιστεί λόγω χειραγώγησης SEO ή περιεχομένου που παράγεται από AI. Ωστόσο, η εισαγωγή αυτής της λειτουργίας μπορεί να ερμηνευτεί ως προσπάθεια να δοθεί μεγαλύτερος έλεγχος στους χρήστες, σε απάντηση σε κριτικές για την ποιότητα των αποτελεσμάτων. Στο πλαίσιο αυτό, η δυνατότητα επιλογής πηγών εγείρει ερωτήματα σχετικά με την ενίσχυση προσωπικών απόψεων, καθώς οι χρήστες μπορεί να περιοριστούν σε οικείες φωνές και κανάλια πληροφόρησης. Από την άλλη, προσφέρει μια πιο εξατομικευμένη εμπειρία, βοηθώντας στην πλοήγηση μέσα σε έναν όγκο πληροφοριών. Οι ειδικοί σημειώνουν ότι τέτοιες λειτουργίες ανταποκρίνονται σε γενικότερες τάσεις personalization στα ψηφιακά μέσα, όπου η προσαρμογή βελτιώνει την ικανοποίηση των χρηστών. Εκτός από την εστίαση σε ειδήσεις, η λειτουργία μπορεί να επεκταθεί σε άλλους τομείς, όπως τεχνολογία ή ψυχαγωγία, ανάλογα με τις επιλογές. Οι χρήστες ενθαρρύνονται να πειραματιστούν για να δουν πώς αλλάζει η ροή των αποτελεσμάτων. Σύμφωνα με την Google, η ανάπτυξη βασίστηκε σε σχόλια από δοκιμές, με στόχο τη βελτίωση της σχετικότητας των αποτελεσμάτων. Μια ενδιαφέρουσα πτυχή είναι η ενσωμάτωση με άλλες υπηρεσίες της Google, όπως το Discover, όπου οι προτιμώμενες πηγές μπορεί να επηρεάσουν τις προτάσεις. Για την ώρα η Google δεν έχει γνωστοποιήσει κάποιο χρονοδιάγραμμα επέκτασης των Preferred Sources και στην Ευρώπη.
-
Η Google αρνείται ότι οι λειτουργίες τεχνητής νοημοσύνης μειώνουν την επισκεψιμότητα προς ιστοσελίδες, υποστηρίζοντας ότι ο συνολικός όγκος οργανικών κλικ από τη μηχανή αναζήτησής της παραμένει σταθερός σε ετήσια βάση. Η Liz Reid, αντιπρόεδρος και επικεφαλής της υπηρεσίας Αναζήτησης της Google, ανέφερε σε πρόσφατη ανάρτηση στο ιστολόγιο της εταιρείας ότι η ποιότητα των κλικ έχει βελτιωθεί ελαφρώς. Σύμφωνα με τα στοιχεία που παρουσιάζει η εταιρεία, οι χρήστες τείνουν να παραμένουν περισσότερο στις ιστοσελίδες στις οποίες μεταβαίνουν, χωρίς να επιστρέφουν γρήγορα πίσω στα αποτελέσματα αναζήτησης. Αυτή η τάση δείχνει ότι τα κλικ γίνονται πιο ουσιαστικά, παρόλο που η Google δεν δημοσιεύει συγκεκριμένα αριθμητικά δεδομένα για να στηρίξει αυτούς τους ισχυρισμούς. Πολλές έρευνες από τρίτους φορείς έχουν δείξει ότι η μετάβαση σε λειτουργίες αναζήτησης βασισμένες σε τεχνητή νοημοσύνη και η χρήση chatbot μειώνουν την κίνηση προς τις ιστοσελίδες εκδοτών. Ωστόσο, η Google αντικρούει αυτές τις εκτιμήσεις, χαρακτηρίζοντάς τες ως ανακριβείς λόγω ελαττωματικών μεθοδολογιών ή περιορισμένων παραδειγμάτων. Η Reid επισημαίνει ότι τέτοιες αναφορές συχνά βασίζονται σε αλλαγές που συνέβησαν πριν από την εισαγωγή των χαρακτηριστικών τεχνητής νοημοσύνης στην Αναζήτηση. Παρά τις διαβεβαιώσεις, η ίδια η Google παραδέχεται ότι οι τάσεις των χρηστών μετατοπίζουν την κίνηση προς διαφορετικές ιστοσελίδες. Ορισμένοι ιστότοποι βλέπουν μείωση στην επισκεψιμότητα, ενώ άλλοι αύξηση. Χωρίς συγκεκριμένα στοιχεία για τον αριθμό των επηρεαζόμενων ιστοσελίδων, η εικόνα παραμένει ασαφής. Για παράδειγμα, chatbot όπως το ChatGPT έχουν δει αύξηση στη χρήση τους, αλλά αυτό δεν αποκλείει τις δυσκολίες που αντιμετωπίζουν οι διαδικτυακοί εκδότες. Η εταιρεία έχει επενδύσει χρόνια στην αναβάθμιση της μηχανής αναζήτησης, προσφέροντας άμεσες απαντήσεις στα αποτελέσματα, τώρα ενισχυμένες με τεχνητή νοημοσύνη μέσω των "AI Overviews" που εμφανίζονται στην κορυφή. Οι χρήστες μπορούν επίσης να αλληλεπιδρούν με chatbot για ορισμένα ερωτήματα. Παρά αυτές τις αλλαγές, η Google ισχυρίζεται ότι το τοπίο της αναζήτησης δεν μεταβάλλεται δραστικά, αποδίδοντας τις μετατοπίσεις σε προτιμήσεις των χρηστών προς άλλες πλατφόρμες. Οι άνθρωποι στρέφονται όλο και περισσότερο σε ιστότοπους με φόρουμ, βίντεο, podcast και αναρτήσεις που προσφέρουν αυθεντικές απόψεις και προσωπικές εμπειρίες, εξηγεί η Reid. Η στροφή αυτή υποδηλώνει ότι η Google δεν είναι πλέον η πρώτη επιλογή για πολλούς χρήστες. Ήδη από το 2022, στέλεχος της εταιρείας, ο Prabhakar Raghavan, τότε επικεφαλής του τμήματος Γνώσης και Πληροφοριών, σημείωσε ότι σχεδόν το 40% των νέων ανθρώπων προτιμούν πλατφόρμες όπως το TikTok ή το Instagram για αναζητήσεις, όπως για μέρη φαγητού, αντί για το Google Maps ή την Αναζήτηση. Η ανησυχία της Google εκτείνεται και σε άλλους τομείς. Το Amazon.com έχει γίνει η κύρια επιλογή για αγορές online, ενώ το Reddit.com προτιμάται για έρευνα θεμάτων. Για να αντιμετωπίσει το γεγονός αυτό, η εταιρεία έχει αναπτύξει λειτουργίες όπως καλάθια αγορών, έλεγχο τοπικού αποθέματος, εύρεση προσφορών και αγορές από εικόνες προϊόντων. Από το 2020, οι καταχωρήσεις στο Google Shopping έγιναν δωρεάν για εμπόρους. Καθώς οι χρήστες παραπονιούνται για πτώση στην ποιότητα της Αναζήτησης, η Google ανταποκρίθηκε προσθέτοντας φίλτρο για αποτελέσματα από φόρουμ, αρχικά εστιασμένο στο Reddit λόγω υψηλής ζήτησης. Τώρα, η εστίαση μετατοπίζεται από τον απλό αριθμό κλικ, στην ποιότητά τους. Η εταιρεία δηλώνει ότι στέλνει ελαφρώς περισσότερα ποιοτικά κλικ, όπου οι χρήστες εμπλέκονται βαθύτερα. Τα "AI Overviews" παρουσιάζουν περισσότερους συνδέσμους, δημιουργώντας ευκαιρίες για κλικ, σύμφωνα με την Reid. Ωστόσο, μελέτες όπως αυτή της Similarweb δείχνουν αύξηση των αναζητήσεων χωρίς κλικ σε ειδησεογραφικούς ιστότοπους, από 56% τον Μάιο του 2024 σε 69% τον Μάιο του 2025. Η Google, αναγνωρίζοντας την τάση, λάνσαρε εργαλείο για εκδότες που βοηθά στην αποκόμιση κερδών μέσω μικροπληρωμών ή εγγραφών σε newsletter, μειώνοντας την εξάρτηση από διαφημίσεις. Η προσπάθεια της Google να πείσει ότι η τεχνητή νοημοσύνη δεν απειλεί την επισκεψιμότητα φαίνεται να αντανακλά ανησυχίες για το μέλλον. Παρά τις διαβεβαιώσεις, η εταιρεία συνεχίζει να στέλνει δισεκατομμύρια κλικ καθημερινά σε ιστοσελίδες. Πρόσφατα, η Google υπέγραψε συμφωνία 60 εκατομμυρίων δολαρίων με το Reddit για πρόσβαση σε δεδομένα σε πραγματικό χρόνο, ενισχύοντας την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης της. Διαβάστε ολόκληρο το άρθρο
- 8 απαντήσεις
-
Η Liz Reid, αντιπρόεδρος και επικεφαλής της υπηρεσίας Αναζήτησης της Google, ανέφερε σε πρόσφατη ανάρτηση στο ιστολόγιο της εταιρείας ότι η ποιότητα των κλικ έχει βελτιωθεί ελαφρώς. Σύμφωνα με τα στοιχεία που παρουσιάζει η εταιρεία, οι χρήστες τείνουν να παραμένουν περισσότερο στις ιστοσελίδες στις οποίες μεταβαίνουν, χωρίς να επιστρέφουν γρήγορα πίσω στα αποτελέσματα αναζήτησης. Αυτή η τάση δείχνει ότι τα κλικ γίνονται πιο ουσιαστικά, παρόλο που η Google δεν δημοσιεύει συγκεκριμένα αριθμητικά δεδομένα για να στηρίξει αυτούς τους ισχυρισμούς. Πολλές έρευνες από τρίτους φορείς έχουν δείξει ότι η μετάβαση σε λειτουργίες αναζήτησης βασισμένες σε τεχνητή νοημοσύνη και η χρήση chatbot μειώνουν την κίνηση προς τις ιστοσελίδες εκδοτών. Ωστόσο, η Google αντικρούει αυτές τις εκτιμήσεις, χαρακτηρίζοντάς τες ως ανακριβείς λόγω ελαττωματικών μεθοδολογιών ή περιορισμένων παραδειγμάτων. Η Reid επισημαίνει ότι τέτοιες αναφορές συχνά βασίζονται σε αλλαγές που συνέβησαν πριν από την εισαγωγή των χαρακτηριστικών τεχνητής νοημοσύνης στην Αναζήτηση. Παρά τις διαβεβαιώσεις, η ίδια η Google παραδέχεται ότι οι τάσεις των χρηστών μετατοπίζουν την κίνηση προς διαφορετικές ιστοσελίδες. Ορισμένοι ιστότοποι βλέπουν μείωση στην επισκεψιμότητα, ενώ άλλοι αύξηση. Χωρίς συγκεκριμένα στοιχεία για τον αριθμό των επηρεαζόμενων ιστοσελίδων, η εικόνα παραμένει ασαφής. Για παράδειγμα, chatbot όπως το ChatGPT έχουν δει αύξηση στη χρήση τους, αλλά αυτό δεν αποκλείει τις δυσκολίες που αντιμετωπίζουν οι διαδικτυακοί εκδότες. Η εταιρεία έχει επενδύσει χρόνια στην αναβάθμιση της μηχανής αναζήτησης, προσφέροντας άμεσες απαντήσεις στα αποτελέσματα, τώρα ενισχυμένες με τεχνητή νοημοσύνη μέσω των "AI Overviews" που εμφανίζονται στην κορυφή. Οι χρήστες μπορούν επίσης να αλληλεπιδρούν με chatbot για ορισμένα ερωτήματα. Παρά αυτές τις αλλαγές, η Google ισχυρίζεται ότι το τοπίο της αναζήτησης δεν μεταβάλλεται δραστικά, αποδίδοντας τις μετατοπίσεις σε προτιμήσεις των χρηστών προς άλλες πλατφόρμες. Οι άνθρωποι στρέφονται όλο και περισσότερο σε ιστότοπους με φόρουμ, βίντεο, podcast και αναρτήσεις που προσφέρουν αυθεντικές απόψεις και προσωπικές εμπειρίες, εξηγεί η Reid. Η στροφή αυτή υποδηλώνει ότι η Google δεν είναι πλέον η πρώτη επιλογή για πολλούς χρήστες. Ήδη από το 2022, στέλεχος της εταιρείας, ο Prabhakar Raghavan, τότε επικεφαλής του τμήματος Γνώσης και Πληροφοριών, σημείωσε ότι σχεδόν το 40% των νέων ανθρώπων προτιμούν πλατφόρμες όπως το TikTok ή το Instagram για αναζητήσεις, όπως για μέρη φαγητού, αντί για το Google Maps ή την Αναζήτηση. Η ανησυχία της Google εκτείνεται και σε άλλους τομείς. Το Amazon.com έχει γίνει η κύρια επιλογή για αγορές online, ενώ το Reddit.com προτιμάται για έρευνα θεμάτων. Για να αντιμετωπίσει το γεγονός αυτό, η εταιρεία έχει αναπτύξει λειτουργίες όπως καλάθια αγορών, έλεγχο τοπικού αποθέματος, εύρεση προσφορών και αγορές από εικόνες προϊόντων. Από το 2020, οι καταχωρήσεις στο Google Shopping έγιναν δωρεάν για εμπόρους. Καθώς οι χρήστες παραπονιούνται για πτώση στην ποιότητα της Αναζήτησης, η Google ανταποκρίθηκε προσθέτοντας φίλτρο για αποτελέσματα από φόρουμ, αρχικά εστιασμένο στο Reddit λόγω υψηλής ζήτησης. Τώρα, η εστίαση μετατοπίζεται από τον απλό αριθμό κλικ, στην ποιότητά τους. Η εταιρεία δηλώνει ότι στέλνει ελαφρώς περισσότερα ποιοτικά κλικ, όπου οι χρήστες εμπλέκονται βαθύτερα. Τα "AI Overviews" παρουσιάζουν περισσότερους συνδέσμους, δημιουργώντας ευκαιρίες για κλικ, σύμφωνα με την Reid. Ωστόσο, μελέτες όπως αυτή της Similarweb δείχνουν αύξηση των αναζητήσεων χωρίς κλικ σε ειδησεογραφικούς ιστότοπους, από 56% τον Μάιο του 2024 σε 69% τον Μάιο του 2025. Η Google, αναγνωρίζοντας την τάση, λάνσαρε εργαλείο για εκδότες που βοηθά στην αποκόμιση κερδών μέσω μικροπληρωμών ή εγγραφών σε newsletter, μειώνοντας την εξάρτηση από διαφημίσεις. Η προσπάθεια της Google να πείσει ότι η τεχνητή νοημοσύνη δεν απειλεί την επισκεψιμότητα φαίνεται να αντανακλά ανησυχίες για το μέλλον. Παρά τις διαβεβαιώσεις, η εταιρεία συνεχίζει να στέλνει δισεκατομμύρια κλικ καθημερινά σε ιστοσελίδες. Πρόσφατα, η Google υπέγραψε συμφωνία 60 εκατομμυρίων δολαρίων με το Reddit για πρόσβαση σε δεδομένα σε πραγματικό χρόνο, ενισχύοντας την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης της.
-
Ο Tim Cook, διευθύνων σύμβουλος της Apple, φέρεται να έχει λάβει υπόψη τις ανησυχίες των εργαζομένων του σχετικά με την αργή πρόοδο της εταιρείας στον τομέα της τεχνητής νοημοσύνης, διαβεβαιώνοντας ότι θα πετύχουν τον στόχο τους. Σύμφωνα με το Bloomberg, ο Cook είπε στους εργαζομένους ότι η καθυστερημένη είσοδος της Apple στον τομέα της τεχνητής νοημοσύνης δεν θα τους αφήσει πίσω. "Η Apple πρέπει να το κάνει αυτό. Η Apple θα το κάνει αυτό. Είναι κατά κάποιο τρόπο δική μας ευκαιρία. Θα κάνουμε την επένδυση για να το πετύχουμε. Σπάνια είμαστε πρώτοι. Υπήρχε υπολογιστής πριν το Mac, υπήρχε smartphone πριν το iPhone, υπήρχαν πολλά tablet πριν το iPad, υπήρχε MP3 player πριν το iPod", ανέφερε χαρακτηριστικά. Ο Cook δήλωσε ότι η Apple θα εφεύρει τη σύγχρονη έκδοση της "τεχνητής νοημοσύνης στο smartphone" και ότι η εταιρεία θα ηγηθεί οπωσδήποτε του τομέα, αν και ακόμα δεν γνωρίζουμε πώς θα το πετύχει αυτό. Δεν υπάρχει αμφιβολία ότι η εταιρεία βρίσκεται υπό πίεση αυτή τη στιγμή. Παρά τα εξαιρετικά οικονομικά αποτελέσματα, εξακολουθεί να αντιμετωπίζει δυσκολίες λόγω των αμερικανικών δασμών και, το σημαντικότερο, οι ανταγωνιστές προηγούνται στον τομέα της τεχνητής νοημοσύνης. Η Apple είχε σχεδιάσει να παρουσιάσει τη Siri εμπλουτισμένη με το Apple Intelligence, αλλά το όλο project καθυστέρησε, προκαλώντας απογοήτευση. Ο Craig Federighi, Ανώτερος Αντιπρόεδρος Μηχανικής Λογισμικού της Apple, εξήγησε ότι η καθυστέρηση της Siri οφείλεται στην προσέγγιση της εταιρείας να βασίζεται σε δύο ξεχωριστά μοντέλα για εφαρμογές τεχνητής νοημοσύνης (agentic και generative AI), αλλά τώρα, η εταιρεία εργάζεται σε μια νέα "υβριδική αρχιτεκτονική". Προς το παρόν, αναμένουμε τις επόμενες κινήσεις της Apple, αλλά υπάρχουν φήμες για μια πιθανή εξαγορά που θα μπορούσε να επιταχύνει τη διαδικασία, αν και ταυτόχρονα δεν θα παρείχε στην εταιρεία μια εγγενή λύση. Η στάση της Apple απέναντι στην τεχνητή νοημοσύνη έχει διαδραματίσει σημαντικό ρόλο στη συζήτηση για το μέλλον της εταιρείας με την τεχνολογία αυτή, καθώς ο κολοσσός του Cupertino δεν έχει καταφέρει ακόμη να παρουσιάσει ένα σαφές σχέδιο ή μια οριστική πορεία για το τι θα κάνει με την τεχνητή νοημοσύνη. Η εταιρεία αναζητά επιλογές και στρέφεται προς πιθανές εξαγορές ή συνεργασίες, αλλά οι προοπτικές για μια εξ ολοκλήρου εσωτερική λύση είναι ελάχιστες προς το παρόν. Αναλυτές υποστηρίζουν ότι η καινοτομία της Apple στην τεχνητή νοημοσύνη μπορεί να επιτευχθεί μόνο με την εξαγορά της Perplexity.
-
Ιστοσελίδες πορνογραφικού περιεχομένου ισχυρίζονται ότι η Meta κατέβασε παράνομα χιλιάδες βίντεο τους μέσω BitTorrent, πιθανώς για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. Η εταιρεία Strike 3 Holdings, που διαχειρίζεται ιστοσελίδες ενηλίκων με περισσότερους από 25 εκατομμύρια μηνιαίους επισκέπτες, κατέθεσε αγωγή κατά της Meta την περασμένη Παρασκευή σε ομοσπονδιακό δικαστήριο της Καλιφόρνια. Σύμφωνα με την αγωγή, η Meta παραβίασε τα πνευματικά δικαιώματα "τουλάχιστον 2.396 ταινιών" μέσω του δικτύου BitTorrent από το 2018. Η νέα αυτή αγωγή θα μπορούσε να υπονομεύσει την κύρια γραμμή άμυνας της Meta σε μια άλλη δικαστική διαμάχη με συγγραφείς, οι οποίοι ισχυρίστηκαν νωρίτερα φέτος ότι η εταιρεία κατέβασε παράνομα "τουλάχιστον 81,7 terabytes δεδομένων" για την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης της. Η Strike 3 Holdings υποστηρίζει ότι εντόπισε 47 διευθύνσεις IP που ανήκουν στη Meta να παραβιάζουν τα προστατευόμενα έργα της, χρησιμοποιώντας τα εργαλεία VXN Scan και Cross Reference. Σύμφωνα με την εταιρεία, η Meta "εσκεμμένα και σκόπιμα" παραβίασε τα πνευματικά δικαιώματα ως μέρος μιας στρατηγικής για να κατεβάσει terabytes δεδομένων όσο το δυνατόν γρηγορότερα. Η αγωγή αναφέρει ότι η Meta συνέχιζε να διαμοιράζει (seeding) το περιεχόμενο "μερικές φορές για μέρες, εβδομάδες ή ακόμα και μήνες" μετά την αρχική λήψη, εκμεταλλευόμενη το μηχανισμό "quid pro quo" του BitTorrent που επιβραβεύει τους χρήστες που διανέμουν δημοφιλές περιεχόμενο. Αυτό που προκαλεί ιδιαίτερη ανησυχία, σύμφωνα με την Strike 3 Holdings, είναι ότι η Meta φέρεται να προσπάθησε να αποκρύψει τις δραστηριότητές της χρησιμοποιώντας "έξι virtual private clouds" που δημιούργησαν ένα "κρυφό δίκτυο" IP διευθύνσεων. Επιπλέον, η εταιρεία ισχυρίζεται ότι εντόπισε "τουλάχιστον μία οικιακή διεύθυνση IP ενός υπαλλήλου της Meta" που παραβίαζε τα πνευματικά της δικαιώματα. Τα στοιχεία που παρουσιάζονται δείχνουν "πάνω από 100.000 συναλλαγές μη εξουσιοδοτημένης διανομής" που συνδέονται με εταιρικές IP της Meta. Η Strike 3 Holdings αναφέρει επίσης ότι τα μοτίβα δεδομένων που εντοπίστηκαν υποδηλώνουν ότι η δραστηριότητα αυτή δεν ήταν για προσωπική χρήση αλλά για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης. Η εταιρεία ζητά εκτεταμένες αποζημιώσεις και ασφαλιστικά μέτρα για να σταματήσει μόνιμα η Meta την πειρατεία των βίντεό της. Επιπλέον, απαιτεί από τη Meta να διαγράψει τυχόν κλεμμένα βίντεο από τα δεδομένα εκπαίδευσης και τα υπάρχοντα μοντέλα τεχνητής νοημοσύνης της. Ένας από τους φόβους της εταιρείας είναι ότι η Meta θα μπορούσε να χρησιμοποιήσει το υψηλής ποιότητας υλικό της για να δημιουργήσει μια ανταγωνιστική γεννήτρια περιεχομένου ενηλίκων που θα μπορούσε "τελικά να δημιουργήσει πανομοιότυπο περιεχόμενο με ελάχιστο ή καθόλου κόστος". Η αγωγή υποστηρίζει ότι η πρακτική αυτή θα μπορούσε επίσης να βλάψει ανηλίκους, καθώς η διανομή των βίντεο μέσω BitTorrent παρακάμπτει τους ελέγχους ηλικίας που απαιτούνται πλέον σε πολλές πολιτείες. Το TorrentFreak ανέφερε ότι αυτή η νέα αγωγή φαίνεται να περιέχει στοιχεία που θα μπορούσαν να βοηθήσουν τους συγγραφείς να κερδίσουν τη δική τους μάχη κατά της Meta. Διαβάστε ολόκληρο το άρθρο