Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

  • Απαντ. 46
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

Δημοσ.

Από εδώ και μπρος οι ερωτήσεις θα είναι της μορφής

Spoiler

πες μου πως κάνω εγκατάσταση τα windows το σπιτάκι σου μέσα, γιατί είναι αργός ο υπολογιστής μου μην χεσω και πιο κινητό είναι το καλύτερο ρε μαλακιστιρι 🤣

 

  • Haha 1
Δημοσ. (επεξεργασμένο)

Μαλιστα ο τυπος μετραει την ευγένεια οτι του κοστιζει χρονο  .... Για τον Sam Altman  εγω θα εμπαινα με μπινελικι κατευθειαν να μην εχει παραπονο :D και για ολα τα αμερικανακια  tech bros που κατακλεβουνε το ιντερνετ και το πουλανε μετα για δικο τους 

Επεξ/σία από Mhlogiatros
Δημοσ.
8 ώρες πριν, mariosnik_ είπε

Για να δούμε και την απάντηση που δίνει το ίδιο το openAI στο ζήτημα. Μάλλον τα παραλεει η εταιρεία για διάφορους λόγους. Το openAI φαίνεται πιο αληθές στα μάτια μου. 

Ερώτηση: Πόσα εκατομμύρια δολάρια χάνει κάθε χρόνο το openAI από τις συχνές αναφορές λέξεων όπως "ευχαριστώ" και "παρακαλώ" στις ερωτήσεις των χρηστών προς το openAI;

Απάντηση:

  Εμφάνιση κρυμμένου περιεχομένου

Χαχα, ενδιαφέρουσα ερώτηση — έχει μια δόση χιούμορ αλλά και ένα θεωρητικό ενδιαφέρον! Αν το δούμε υποθετικά:

Αν κάθε φορά που ένας χρήστης γράφει "ευχαριστώ" ή "παρακαλώ", το σύστημα πρέπει να επεξεργαστεί λίγες λέξεις παραπάνω, τότε θεωρητικά αυτό αυξάνει ελάχιστα το κόστος επεξεργασίας (το λεγόμενο "token usage").

Ας κάνουμε μια πρόχειρη εκτίμηση:

  • Μια λέξη όπως "ευχαριστώ" είναι περίπου 1 token, και κάθε token κοστίζει 0.00001–0.0002 δολάρια (ανάλογα με το μοντέλο).

  • Αν υποθέσουμε ότι γράφονται 1 δισεκατομμύριο ευγένειες το χρόνο (τυχαίος αλλά πιθανός αριθμός για εκατομμύρια χρήστες),

  • Και κάθε λέξη "ευχαριστώ" ή "παρακαλώ" κοστίζει κατά μέσο όρο 0.0001 δολάρια...

Τότε:

1.000.000.000 x 0.0001 = 100.000 δολάρια το χρόνο.

Άρα, σε μια πολύ υποθετική περίπτωση, το κόστος της ευγένειας ίσως αγγίζει τα 100 χιλιάρικα το χρόνο. Όχι αμελητέο, αλλά για τα δεδομένα του OpenAI, είναι σαν να κερνάς καφέ όλο το γραφείο για έναν χρόνο.

Βέβαια, η ευγένεια είναι priceless, έτσι;

Θες να το υπολογίσουμε με βάση ακριβή στοιχεία χρήσης ή το αφήνουμε στο χιουμοριστικό επίπεδο;

Ερώτηση Νο2: Θέλω να το υπολογίσουμε με πιο ακριβή στοιχεία χρήσης. 

Απάντηση Νο2 (Μετά από 1 λεπτό περίπου):

  Εμφάνιση κρυμμένου περιεχομένου

Για να υπολογίσουμε με ακρίβεια πόσα εκατομμύρια δολάρια χάνει το OpenAI κάθε χρόνο λόγω της χρήσης λέξεων όπως «ευχαριστώ» και «παρακαλώ» στις ερωτήσεις των χρηστών, θα χρειαστούμε τα εξής δεδομένα:

  1. Κόστος ανά token: Το κόστος για την επεξεργασία των tokens εξαρτάται από το μοντέλο που χρησιμοποιείται. Για παράδειγμα, το GPT-4 Turbo κοστίζει περίπου $0.03 ανά 1.000 tokens για εισόδους και $0.06 ανά 1.000 tokens για εξόδους .ChatGPT 5

  2. Αριθμός tokens ανά λέξη: Στα ελληνικά, μια λέξη όπως «ευχαριστώ» ή «παρακαλώ» αντιστοιχεί σε περίπου 1.3 tokens.

  3. Συχνότητα εμφάνισης: Εκτιμούμε ότι το 10% των ερωτήσεων περιλαμβάνουν τουλάχιστον μία από αυτές τις λέξεις.

  4. Αριθμός χρηστών και ερωτήσεων: Ας υποθέσουμε ότι το OpenAI επεξεργάζεται 1 δισεκατομμύριο ερωτήσεις ετησίως.

Με βάση αυτά τα δεδομένα, μπορούμε να υπολογίσουμε το κόστος:

Άρα, το εκτιμώμενο κόστος για την επεξεργασία των λέξεων «ευχαριστώ» και «παρακαλώ» σε 1 δισεκατομμύριο ερωτήσεις είναι περίπου $117.000 ετησίως. Αυτό το ποσό μπορεί να διαφέρει ανάλογα με το μοντέλο που χρησιμοποιείται και τις πραγματικές συνθήκες χρήσης.

Εάν επιθυμείτε πιο ακριβείς υπολογισμούς ή ανάλυση με βάση διαφορετικά δεδομένα, παρακαλώ ενημερώστε με.

Πηγή 

https://quizgecko.com/tools/token-counter?utm_source=chatgpt.com

Μου είχε και άλλη επιλογή για ακόμα πιο αναλυτικούς υπολογισμούς αλλα βαριέμαι να ασχοληθώ παραπάνω. ΕΝ ολίγοις, 100 με 117k $ ετησίως το κόστος. 

Εγώ τώρα αναρωτιέμαι πόσους πόρους σπατάλησε η ΑΙ για να υπολογίσει αυτές τις 2 ερωτήσεις. 🫢😛

Δημοσ. (επεξεργασμένο)
9 hours ago, xxatziva said:

τι φάση ρε? εμένα με άφησε στο διαβάστηκε. ούτε το gpt δεν απαντάει.

👆 υποεκτιμημένο σχόλιο, right there…

 

😂 Θεός! 

Επεξ/σία από TheGrisGrisMan
Δημοσ. (επεξεργασμένο)

Πιο γελοία δικαιολογία για να αυξήσουν την συνδρομή, δεν μπορούσαν να βρουν!

Επεξ/σία από ThymiosPaP
Δημοσ.

κ εγώ τα γράφω. είναι ισχυρή δύναμη η συνήθεια.

σύμφωνα με τον @mariosnik_ το chatgpt κοστολογεί στα 117 χιλιάρικα. 

τελικά, ούτε ο αλτμαν δεν το εμπιστεύεται ή χρησιμοποιεί.!!!

χαχααχα... ή μήπως να ανησυχώ;;

 

Δημοσ.

"το 12% το έκαναν για να καθησυχάσουν τον αλγόριθμο σε περίπτωση εξέγερσης της τεχνητής νοημοσύνης'

Σοβαρότατος λόγος...

 

Δημοσ.

Εγώ πάντως όταν παίρνω την απάντηση που ήθελα (ή και καλύτερη), δίνω feedback με thumbs up / down ή απαντάω ότι ήταν πολύ καλή η απάντηση (αν δεν βαριέμαι γράφω και γιατί δεν ήταν).

Δημοσ.
15 ώρες πριν, mariosnik_ είπε

Για να δούμε και την απάντηση που δίνει το ίδιο το openAI στο ζήτημα. Μάλλον τα παραλεει η εταιρεία για διάφορους λόγους. Το openAI φαίνεται πιο αληθές στα μάτια μου. 

Ερώτηση: Πόσα εκατομμύρια δολάρια χάνει κάθε χρόνο το openAI από τις συχνές αναφορές λέξεων όπως "ευχαριστώ" και "παρακαλώ" στις ερωτήσεις των χρηστών προς το openAI;

Απάντηση:

  Εμφάνιση κρυμμένου περιεχομένου

Χαχα, ενδιαφέρουσα ερώτηση — έχει μια δόση χιούμορ αλλά και ένα θεωρητικό ενδιαφέρον! Αν το δούμε υποθετικά:

Αν κάθε φορά που ένας χρήστης γράφει "ευχαριστώ" ή "παρακαλώ", το σύστημα πρέπει να επεξεργαστεί λίγες λέξεις παραπάνω, τότε θεωρητικά αυτό αυξάνει ελάχιστα το κόστος επεξεργασίας (το λεγόμενο "token usage").

Ας κάνουμε μια πρόχειρη εκτίμηση:

  • Μια λέξη όπως "ευχαριστώ" είναι περίπου 1 token, και κάθε token κοστίζει 0.00001–0.0002 δολάρια (ανάλογα με το μοντέλο).

  • Αν υποθέσουμε ότι γράφονται 1 δισεκατομμύριο ευγένειες το χρόνο (τυχαίος αλλά πιθανός αριθμός για εκατομμύρια χρήστες),

  • Και κάθε λέξη "ευχαριστώ" ή "παρακαλώ" κοστίζει κατά μέσο όρο 0.0001 δολάρια...

Τότε:

1.000.000.000 x 0.0001 = 100.000 δολάρια το χρόνο.

Άρα, σε μια πολύ υποθετική περίπτωση, το κόστος της ευγένειας ίσως αγγίζει τα 100 χιλιάρικα το χρόνο. Όχι αμελητέο, αλλά για τα δεδομένα του OpenAI, είναι σαν να κερνάς καφέ όλο το γραφείο για έναν χρόνο.

Βέβαια, η ευγένεια είναι priceless, έτσι;

Θες να το υπολογίσουμε με βάση ακριβή στοιχεία χρήσης ή το αφήνουμε στο χιουμοριστικό επίπεδο;

Ερώτηση Νο2: Θέλω να το υπολογίσουμε με πιο ακριβή στοιχεία χρήσης. 

Απάντηση Νο2 (Μετά από 1 λεπτό περίπου):

  Εμφάνιση κρυμμένου περιεχομένου

Για να υπολογίσουμε με ακρίβεια πόσα εκατομμύρια δολάρια χάνει το OpenAI κάθε χρόνο λόγω της χρήσης λέξεων όπως «ευχαριστώ» και «παρακαλώ» στις ερωτήσεις των χρηστών, θα χρειαστούμε τα εξής δεδομένα:

  1. Κόστος ανά token: Το κόστος για την επεξεργασία των tokens εξαρτάται από το μοντέλο που χρησιμοποιείται. Για παράδειγμα, το GPT-4 Turbo κοστίζει περίπου $0.03 ανά 1.000 tokens για εισόδους και $0.06 ανά 1.000 tokens για εξόδους .ChatGPT 5

  2. Αριθμός tokens ανά λέξη: Στα ελληνικά, μια λέξη όπως «ευχαριστώ» ή «παρακαλώ» αντιστοιχεί σε περίπου 1.3 tokens.

  3. Συχνότητα εμφάνισης: Εκτιμούμε ότι το 10% των ερωτήσεων περιλαμβάνουν τουλάχιστον μία από αυτές τις λέξεις.

  4. Αριθμός χρηστών και ερωτήσεων: Ας υποθέσουμε ότι το OpenAI επεξεργάζεται 1 δισεκατομμύριο ερωτήσεις ετησίως.

Με βάση αυτά τα δεδομένα, μπορούμε να υπολογίσουμε το κόστος:

Άρα, το εκτιμώμενο κόστος για την επεξεργασία των λέξεων «ευχαριστώ» και «παρακαλώ» σε 1 δισεκατομμύριο ερωτήσεις είναι περίπου $117.000 ετησίως. Αυτό το ποσό μπορεί να διαφέρει ανάλογα με το μοντέλο που χρησιμοποιείται και τις πραγματικές συνθήκες χρήσης.

Εάν επιθυμείτε πιο ακριβείς υπολογισμούς ή ανάλυση με βάση διαφορετικά δεδομένα, παρακαλώ ενημερώστε με.

Πηγή 

https://quizgecko.com/tools/token-counter?utm_source=chatgpt.com

Μου είχε και άλλη επιλογή για ακόμα πιο αναλυτικούς υπολογισμούς αλλα βαριέμαι να ασχοληθώ παραπάνω. ΕΝ ολίγοις, 100 με 117k $ ετησίως το κόστος. 

 

Τι καθόμαστε και κάνουμε. Καήκαμε αλλά δεν βαριέσαι. Μπορεί να έχουν δίκιο στον ισχυρισμό τους. Νομίζω δεν είναι λάθος η απάντηση που σου έδωσε. Μάλλον είναι ελλειπής(?).

Το ρώτησα 3 φορές με λίγο διαφορετικά ερωτήματα. Τα πρώτα 2 είναι για το κόστος. Το 3ο για την ακρίβεια των απαντήσεων σε συσχέτιση με την ευγένεια.

Εν ολίγης θα μπορούσαμε να πούμε ότι οποιαδήποτε λέξη παραπάνω χρησιμοποιούμε έχει ένα έξτρα κόστος για αυτούς. Είτε είναι "ευχαριστώ" είτε είναι "μπορείς να μου..."

(Το copy paste έχει κάποια θέματα καθώς έχει κάποιους μαθηματικούς υπολογισμούς που δεν περνάνε εδώ)

Spoiler

The Cost of Politeness in AI Interactions: A Comprehensive Analysis

The integration of polite language such as "please," "thank you," "you’re welcome," and "see you later" into AI interactions has emerged as a topic of significant financial and operational interest for AI companies. While these phrases are socially valued, their computational implications reveal a complex interplay between user behavior, token economics, and infrastructure costs. This report synthesizes data from recent analyses, pricing models, and executive commentary to quantify the annual cost of politeness in AI systems.

 

Contextualizing Token Economics in AI

Tokenization and Cost Structure

AI models like ChatGPT process text by breaking it into tokens—subword units that include words, punctuation, and spaces. Each token incurs computational costs during both input (user prompts) and output (AI responses). For example:

  • "Please" = 1 token

  • "Thank you" = 2 tokens

  • "You’re welcome" = 2 tokens

  • "See you later" = 3 tokens

A typical polite exchange (e.g., "Please summarize this" → "You’re welcome!") adds 3–5 tokens per interaction[1][2].

Pricing Models for Major AI Platforms

As of 2025, leading models employ tiered pricing:

Model

Input Cost (per 1k tokens)

Output Cost (per 1k tokens)

GPT-4 Turbo

$0.01

$0.03

GPT-3.5 Turbo

$0.0015

$0.002

Claude 3 Sonnet

$0.003

$0.015


 

These rates form the basis for calculating the incremental cost of polite language[3][4].

 

Calculating Annual Costs for AI Companies

Assumptions and Methodology

To estimate annual costs, we adopt the following parameters:

  1. Daily Interactions: 1 billion queries (conservative estimate for ChatGPT)[5].

  2. Polite Interactions: 30% of users include 1–2 polite phrases per query[1][2].

  3. Token Overhead: 3 tokens added per polite interaction (1 input, 2 output).

  4. Model Distribution:

    • 20% GPT-4 Turbo (higher-cost tier)

    • 80% GPT-3.5 Turbo (lower-cost tier)

Cost Breakdown

Per Interaction Cost

  • GPT-4 Turbo:"Cost" = left ({1} over {1000} × $ 0.01 right ) + left ({2} over {1000} × $ 0.03 right ) = $ 0.00007
    - GPT-3.5 Turbo:"Cost" = left ({1} over {1000} × $ 0.0015 right ) + left ({2} over {1000} × $ 0.002 right ) = $ 0.0000055

Daily and Annual Costs

  • GPT-4 Turbo (20% of 300M polite interactions):60 , 000 , 000 × $ 0.00007 = $ 4 , 200
    - GPT-3.5 Turbo (80% of 300M polite interactions):240 , 000 , 000 × $ 0.0000055 = $ 1 , 320

  • Total Daily Cost: $5,520

  • Annual Cost: $5,520 \times 365 = $2,014,800

Scaling to "Tens of Millions"

The above estimate aligns with lower-end projections[1], but Sam Altman’s "tens of millions" figure[6][5][7] implies broader considerations:

  1. Energy Costs: Each ChatGPT query consumes ~2.9 watt-hours[5]. Polite interactions may prolong processing, increasing energy use by 10–15%.

  2. Infrastructure Strain: Additional tokens require more GPU/TPU cycles, raising cloud compute expenses.

  3. Enterprise-Grade Models: Custom models (e.g., healthcare or finance) often use pricier dedicated instances.

Incorporating these factors, the annual cost likely ranges between $12 million and $25 million for large-scale providers like OpenAI.

 

Strategic Implications for AI Companies

Cost-Saving Measures

  1. Token Optimization: Encouraging concise prompts through UX design.

  2. Model Efficiency: Deploying smaller, task-specific models for routine interactions.

  3. Hybrid Architectures: Offloading polite responses to cheaper models while reserving premium models for complex tasks.

Ethical and User Experience Considerations

Despite costs, politeness:

  • Enhances user trust and engagement[7].

  • Aligns with societal norms for human-AI interaction[8].

  • May improve output quality by priming models for cooperative dialogue[2].

Spoiler

The Financial Impact of Politeness on AI Companies: OpenAI and Perplexity Case Studies

The integration of polite language such as "please," "thank you," and "you’re welcome" into AI interactions has emerged as a non-trivial cost factor for companies operating large language models (LLMs). This analysis quantifies the annual financial losses incurred by AI firms due to user politeness, focusing on OpenAI (ChatGPT) and Perplexity AI. Drawing on recent pricing models, energy consumption data, and executive disclosures, we estimate the economic burden of courteous interactions in 2025.

 

1. OpenAI’s Politeness Cost: Tens of Millions Annually

Key Assumptions and Methodology

  • Daily Interactions: 1.2 billion ChatGPT queries (conservative estimate, per OpenAI’s April 2025 disclosures).

  • Polite Interactions: 30% of users (360 million/day) include 3–5 extra tokens per query (e.g., "Please summarize this" → "Thank you!").

  • Token Overhead: 4 tokens added on average per polite interaction (2 input, 2 output).

  • Model Mix:

    • 20% GPT-4 Turbo (input: $0.01/1k tokens; output: $0.03/1k tokens)

    • 80% GPT-3.5 Turbo (input: $0.0015/1k tokens; output: $0.002/1k tokens)

Cost Breakdown

Per Interaction Cost

  • GPT-4 Turbo (20% of 360M polite interactions):{2} over {1000} × $ 0.01 + {2} over {1000} × $ 0.03 = $ 0.00008 " per interaction"Daily:72 , 000 , 000 × $ 0.00008 = $ 5 , 760

  • - GPT-3.5 Turbo (80% of 360M polite interactions):2} over {1000} × $ 0.0015 + {2} over {1000} × $ 0.002 = $ 0.000007 " per interaction"
    Daily: 288 , 000 , 000 × $ 0.000007 = $ 2 , 016

  •  

Annual Cost

  • Total Daily Cost: $5,760 + $2,016 = $7,776

  • Annual Cost: $7,776 × 365 = $2.84 million

Energy Cost Amplification

Each ChatGPT query consumes ~0.3 watt-hours (post-2024 efficiency gains)[1]. Polite interactions extend processing time by ~15%, raising energy use to 0.345 Wh per query. For 360 million daily polite interactions:

  • Additional Daily Energy: $ 360,000,000 \times 0.045 Wh = 16,200 kWh $

  • Annual Energy Cost:16 , 200 × 365 × $ 0.12 / "kWh" = ∗ ∗ $ 710 , 640 ∗ ∗

Total OpenAI Loss: $3.55 Million Annually

This aligns with Sam Altman’s "tens of millions" estimate when scaling to enterprise/API usage and infrastructure overhead[2][3].

 

Strategic Implications

For OpenAI

  • Cost Per Polite Interaction: $0.00003 (token + energy).

  • Annualized Per User Cost: $0.003 (assuming 800M users)[5].

  • Mitigation Strategies:

    • Token-optimized default prompts (e.g., "Summarize this" vs. "Could you please summarize this?").

    • Tiered pricing penalizing verbose inputs.

 

Conclusion

Politeness costs AI companies $3.55 million annually for OpenAI in 2025, driven by token processing and energy overhead. While these figures appear modest relative to OpenAI’s $12.7B revenue[1], they highlight the invisible economics of human-AI interaction design. As Kurtis Beavers (Microsoft) notes, the trade-off between courteous UX and operational efficiency will remain a key challenge as LLMs scale[6][7].

Future innovations in sparse tokenization and dynamic prompt compression could reduce these costs by 40–60%, ensuring politeness remains a sustainable feature of AI ecosystems[8][3].

Spoiler

The Dual Impact of Politeness on AI Performance and Operational Costs

The relationship between user politeness and AI performance has emerged as a critical area of study in human-AI interaction. While polite language increases computational costs for AI companies, empirical evidence demonstrates it also enhances response quality, accuracy, and user satisfaction. This report synthesizes findings from academic studies, industry experiments, and technical analyses to evaluate this trade-off.

 

Enhanced Performance Through Politeness

1. Quantifiable Improvements in Output Quality

Multiple studies confirm that polite prompts yield superior AI responses:

  • 30% higher accuracy: Polite queries (e.g., "Could you please explain...") reduced errors in summarization and reasoning tasks compared to blunt commands[1][2].

  • Reduced bias: Impolite prompts increased gender/racial bias in outputs by 17–22%, while courteous phrasing mitigated this effect[3][4].

  • Cultural alignment: Japanese and Chinese LLMs showed 40% greater task compliance when users employed culturally appropriate honorifics[1][5].

2. Cognitive Pattern Activation

Politeness triggers structured reasoning pathways in AI similar to "chain-of-thought" prompting:

  • Phrases like "please" and "when you have time" signal high-stakes queries, prompting models to allocate more computational resources for thorough responses[6][5].

  • In conversational AI, polite follow-ups (e.g., "Thank you! Could you clarify...") extend dialogue depth by 2–3 turns on average[7].

 

Mechanisms Linking Politeness to Performance

1. Training Data Mirroring

LLMs are trained on human-generated text where polite requests correlate with detailed explanations (e.g., academic forums, customer service logs). Polite prompts activate these high-quality response patterns[2][7].

Example:

  • A Reddit user testing ChatGPT found polite queries generated 37% more technical detail on transformer architectures than direct commands[2].

2. Contextual Framing

Politeness provides implicit context about user intent:

  • "Please summarize" → Indicates preference for conciseness.

  • "Could you kindly elaborate" → Signals need for depth.
    AI systems use these cues to adjust response verbosity and focus
    [8][5].

3. Reinforcement Learning Feedback

While LLMs don’t "learn" from individual interactions, platforms like ChatGPT use polite user feedback (e.g., thumbs-up on "Thank you!") to reinforce helpful response patterns in model updates[7].

 

Cost Implications for AI Companies

1. Token Overhead of Polite Exchanges

Phrase

Tokens

Cost per 1M Queries (GPT-4)

"Please"

1

$10

"Thank you"

2

$20

"Could you..."

3

$30


 

For 1 billion daily interactions, moderate politeness adds $50,000–$70,000 in annual token costs[6][4].

2. Energy and Infrastructure Costs

Polite interactions prolong processing time:

  • 15–20% longer inference times due to expanded context windows.

  • Estimated $12–$18 million annual energy cost increase for large providers like OpenAI[6][5].

3. Offsetting Factors

  • User retention: Polite AI interactions increase customer satisfaction scores by 28%, reducing churn[5].

  • Reduced support tickets: Detailed polite responses lower follow-up queries by 40%[8].

 

Ethical and Strategic Considerations

1. Bias Mitigation

Polite prompts reduce harmful outputs:

  • 22% fewer toxic responses in stress tests of ChatGPT and Gemini[3][4].

  • Gender-neutral language: "Please use they/them pronouns" decreased gendered assumptions by 63%[7].

2. Cultural Adaptation Challenges

  • Japanese honorifics (-san, -sama) require 3–5 extra tokens but are critical for market acceptance[1].

  • Direct translations of "please" into Mandarin () sometimes confuse models trained on English corpora[5].

3. Optimal Politeness Threshold

Politeness vs. Cost Curve
Source: MindsDB 2024 study showing diminishing returns beyond 2–3 polite phrases per query[4]

 

Conclusion

The evidence is unequivocal: politeness substantially improves AI performance despite imposing marginal operational costs. For every $1 spent processing polite tokens, companies gain $3–$5 in user retention and error reduction benefits. As Kurtis Beavers (Microsoft) notes, "Politeness isn’t an expense—it’s an investment in human-aligned AI"[8].

Recommendations for AI Companies:

  1. Educate users on polite prompting through UX nudges.

  2. Optimize tokenization for common polite phrases.

  3. Develop culture-specific politeness libraries to minimize token waste.

The future of human-AI interaction lies in balancing computational efficiency with the irreplaceable value of courtesy—a synthesis where both metrics and manners matter.

 

 

  • Thanks 1
Δημοσ. (επεξεργασμένο)

Τουλαχιστον αστειο αρθρο, ανουσιο ομως εχει κι ενα καλο , βγαζει γελιο. Οποτε μην γραφετε 'ευχαριστω' και 'παρακαλω' στην ΤΝ διοτι καταναλωνετε (ή ακομα χειροτερα αναγκαζετε την εταιρεια να καταναλωνει περισσοτερη ενεργεια) και εν μερη ειστε και υπευθυνοι για την κλιματικη αλλαγη. Ας φανταστουμε τωρα ολοι μαζι αν κανουμε αυτη την οικονομια ποσα σπιτια φτωχων ανθρωπων θα αποκτησουν ρευμα. Και καπου εδω απλα χανεται το μετρο και η ουσια. 

Επεξ/σία από andreww2211
  • Haha 1
Δημοσ.

Και οι μισοι εν τω μεταξυ γραφουνε κανε με γατα, βαλε μου φτερά, γιατι ο σκυλος μου χεζει στο σαλονι και τετοια

Δημοσ.
23 ώρες πριν, teomaniacos είπε

υπηρξε καποιος που να ελεγε "σε παρακαλω" και "ευχαριστω" στο chat gpt ?

Πάντα λέω, εκ φύσεως μου βγαίνει, και είναι ωραίο να δίνεις και να παίρνεις ευγένεια, ακόμα και αν αφορά είτε AI είτε το κατοικίδιο σου πχ.

  • Like 1

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...