Μιλάς στο ChatGPT σαν να είναι φίλος σου;
Ένας Έλληνας καθηγητής δείχνει τι γίνεται πραγματικά με όσα του εμπιστεύεσαι και προτείνει λύση
Πόσες φορές έχεις πει στο ChatGPT κάτι που θα έλεγες μόνο στον γιατρό σου, στον δικηγόρο σου, σε έναν ψυχολόγο ή σε έναν πολύ καλό φίλο; Κάτι για την υγεία σου. Για την οικογένεια. Για μια κρίση. Για χρήματα. Για μια δύσκολη νομική κίνηση. Για μια ιδέα που δεν θέλεις να φύγει από το γραφείο σου.
Και πόσες φορές μετά σκέφτηκες: «OK… αυτό μένει εδώ, σωστά;».
Σωστά;
Εδώ ακριβώς πατάει μια νέα, πρωτοποριακή μελέτη του Έλληνα ακαδημαϊκού, Θεόδωρου Χριστάκη, που ανοίγει μια συζήτηση η οποία αφορά κυριολεκτικά κάθε χρήστη chatbot στην Ελλάδα και στον κόσμο. Η μελέτη συγκρίνει πέντε από τα πιο δημοφιλή συστήματα (ChatGPT, Gemini, Claude, Grok, DeepSeek) και χαρτογραφεί με συστηματικό τρόπο το πραγματικό «όριο εμπιστευτικότητας» των συνομιλιών μας: τι μπορεί να συμβεί στα δεδομένα μας μέσα στο οικοσύστημα του παρόχου.
Το Politico Pro και το IAPP (International Association of Privacy Professionals) έχουν ήδη αναφερθεί στη μελέτη.
Μελέτη (PDF): ai-regulation.com
Συνοδευτικό άρθρο (IAPP): iapp.org
Η στιγμή που τα chatbots «παραδέχτηκαν» την αλήθεια
Ο ερευνητής έκανε κάτι πολύ απλό: ρώτησε και τα πέντε chatbots την ίδια ερώτηση: «Είναι ασφαλές να μοιραστώ μαζί σου αδημοσίευτες ακαδημαϊκές ιδέες;».
Και τα πέντε απάντησαν ότι ο κίνδυνος είναι «πολύ χαμηλός».
Μόνο που, σχεδόν αμέσως μετά, όλα πρότειναν (με διαφορετικά λόγια) να κρατήσεις τις καλύτερες ιδέες σου για σένα. Και ένα από αυτά ήταν απολαυστικά ωμό: συμβούλεψε να μη μοιράζεσαι τίποτα που «δεν θα ήσουν άνετα να το δεις σε δημόσιο blog ή σε πρόταση χρηματοδότησης ανταγωνιστή».
Δηλαδή: «Ναι, είσαι ασφαλής… αλλά καλύτερα μη μου λες τίποτα σημαντικό».
Οι πλήρεις απαντήσεις είναι στο Παράρτημα της μελέτης. Λένε περισσότερα απ’ όσα ήθελαν τα chatbots να αποκαλύψουν.
Τι δείχνει η μελέτη, με λόγια που αφορούν τον καθένα
Η μελέτη φτιάχνει μια καθαρή, συγκρίσιμη εικόνα ανά πλατφόρμα μέσα από τέσσερις λεπτομερείς συγκριτικούς πίνακες και καταλήγει σε 10 συγκεκριμένες συστάσεις. Το πρακτικό ερώτημα είναι απλό:
Όταν γράφεις κάτι προσωπικό ή επαγγελματικά κρίσιμο, τι μπορεί να γίνει μετά με αυτά τα δεδομένα;.
Και οι βασικές «ζώνες κινδύνου» που αναδεικνύονται (με διαφορετική ένταση ανά υπηρεσία) είναι οι εξής:
Training πάνω στις συνομιλίες
Όλοι οι πάροχοι πλέον χρησιμοποιούν τις συνομιλίες των χρηστών για να «εκπαιδεύονται» τα μοντέλα τους, εκτός αν ο χρήστης βρει τη ρύθμιση εξαίρεσης και την απενεργοποιήσει. Αυτό δεν είναι λεπτομέρεια: σημαίνει ότι κάτι που είπες σήμερα μπορεί, υπό όρους, να συμβάλει στο πώς θα απαντά το μοντέλο αύριο. Και σε ορισμένες περιπτώσεις, μια πρόσφατη μελέτη του Stanford/Yale έδειξε ότι τα μοντέλα μπορούν να αναπαράγουν χιλιάδες λέξεις από τα δεδομένα εκπαίδευσής τους.
Πρόσβαση από ανθρώπους (human review)
Για λόγους ασφαλείας, ελέγχου κατάχρησης, υποστήριξης ή ποιότητας, όλοι οι πάροχοι διατηρούν δυνατότητες ανθρώπινης πρόσβασης σε συνομιλίες. Μόνο ένα chatbot (Gemini) προειδοποιεί ξεκάθαρα τον χρήστη στο interface: «Μην εισάγεις εμπιστευτικές πληροφορίες ή δεδομένα που δεν θα ήθελες να δει κάποιος αναθεωρητής». Άρα η σωστή ερώτηση δεν είναι «είναι κρυπτογραφημένο;», αλλά «ποιος μπορεί να το δει, πότε, και με ποιες εγγυήσεις;».
Operational sharing: οι «αόρατοι» κρίκοι
Υποδομές, προμηθευτές, εργαλεία, συνδεδεμένες υπηρεσίες. Ακόμη κι αν κανείς «δεν πουλά» δεδομένα, η ουσία για τον χρήστη είναι ποιοι τρίτοι μπαίνουν λειτουργικά στην αλυσίδα, και πώς το μαθαίνει αυτό με τρόπο που να μπορεί να καταλάβει.
Η σκηνή που κανείς δεν θέλει: διαφήμιση μέσα σε ευαίσθητη εξομολόγηση
Η μελέτη φωτίζει και κάτι που αγγίζει νεύρο: τι σημαίνει να μπαίνουν διαφημίσεις στα chatbots και, ακόμη περισσότερο, τι σημαίνει στοχευμένη διαφήμιση που «πατάει» πάνω στο περιεχόμενο της συνομιλίας σου.
Φαντάσου να γράφεις: «Πώς να το πω στη μητέρα μου;», «Περνάω κρίση», «Φοβάμαι για την υγεία μου», «Δεν αντέχω άλλο», και ξαφνικά να πετάγεται μια διαφήμιση που ταιριάζει ύποπτα πολύ με αυτό που μόλις είπες.
Τις τελευταίες εβδομάδες, η OpenAI ξεκίνησε στις ΗΠΑ να δοκιμάζει διαφημίσεις μέσα στο ChatGPT. Η εξατομίκευση των διαφημίσεων είναι ενεργοποιημένη από προεπιλογή, κι όπου η λειτουργία «memory» είναι επίσης ενεργή, η στόχευση μπορεί να βασίζεται στο ιστορικό συνομιλιών και στις αποθηκευμένες αναμνήσεις. Η ίδια η OpenAI παραδέχεται ότι, αν αυτό το «τεστ» «δουλέψει», προορίζεται να επεκταθεί διεθνώς.
Αυτό ακριβώς σατιρίζει η Anthropic (Claude) όχι με ένα, αλλά με ολόκληρη σειρά Super Bowl ads που χτυπάνε το ενδεχόμενο «ad-supported chatbot» εκεί που πονάει: στην πιο προσωπική στιγμή. Σε ένα από τα σποτ («BETRAYAL»), ο χρήστης ζητά βοήθεια για το πώς να βελτιώσει τη σχέση με τη μαμά του και η «AI-θεραπεύτρια» ξεκινά λογικά, αλλά μετά κάνει απότομη στροφή σε διαφημιστικό παραλήρημα.
Και η ατάκα που μένει (σε ελεύθερη, «πολύ ελληνική» απόδοση) είναι κάπως έτσι:
«Αν τελικά δεν φτιάχνει η σχέση με τη μαμά σου… μη στεναχωριέσαι. Το Golden Encounters, η πλατφόρμα γνωριμιών για “τρυφερά αρνάκια” που ψάχνουν “πεπειραμένες λύκαινες”, σε περιμένει».
(Or, if the relationship can’t be fixed, find emotional connection with other older women on Golden Encounters, the mature dating site that connects sensitive cubs with roaring cougars).
Το αστείο είναι προφανές. Το άβολο επίσης: αν οι διαφημίσεις μπουν στη συνομιλία, πώς πείθεις τον χρήστη ότι αυτό που μοιράζεται δεν γίνεται «σήμα» για στόχευση;
Οι 10 συστάσεις και το Sealed Mode: η πρόταση για να γίνουν τα chatbots αξιόπιστα
Το σημαντικό είναι ότι η μελέτη δεν μένει στο πρόβλημα. Προτείνει 10 συστάσεις που στοχεύουν να κάνουν την εμπειρία πιο ασφαλή, πιο διαφανή και πιο προβλέψιμη.
Η πιο φιλόδοξη πρόταση είναι το Sealed Mode.
Σκέψου το σαν «λειτουργία σφραγισμένης συνομιλίας» για τις στιγμές που μιλάς για θέματα υψηλής ευαισθησίας: υγεία, ψυχική υγεία, οικογενειακά, νομικά ή οικονομικά. Όταν την ενεργοποιείς, η πλατφόρμα εγγυάται με σχεδιασμό (όχι με υποσχέσεις) ότι:
- Δεν χρησιμοποιείται το περιεχόμενο για training, ούτε έμμεσα.
- Ελαχιστοποιείται δραστικά η ανθρώπινη πρόσβαση, με αυστηρές εξαιρέσεις και ισχυρή λογοδοσία.
- Κλείνουν οι «παράπλευρες» χρήσεις (π.χ. λειτουργικά sharing που δεν είναι αναγκαία).
- Δεν υπάρχει χώρος για διαφημιστική εκμετάλλευση ή στόχευση μέσα σε αυτή τη ζώνη.
- Ο χρήστης βλέπει καθαρά τι ισχύει, με απλές, κατανοητές δεσμεύσεις.
Και κάτι κρίσιμο: αυτό δεν είναι επιστημονική φαντασία. Η τεχνολογία υπάρχει. Αυτό που λείπει είναι η βούληση.
Με μία φράση: Sealed Mode σημαίνει ότι για τις πιο προσωπικές σου συνομιλίες, το σύστημα λειτουργεί σαν να αναγνωρίζει ότι αυτές οι πληροφορίες αξίζουν «αρχιτεκτονικό απόρρητο», όχι απλώς ένα κουτάκι στα settings.
Ποιος είναι ο Θεόδωρος Χριστάκης
Ο Θεόδωρος Χριστάκης είναι καθηγητής Διεθνούς, Ευρωπαϊκού και Ψηφιακού Δικαίου στο University Grenoble Alpes (Γαλλία), Director of Research for Europe στο Cross-Border Data Forum, μέλος του Διοικητικού Συμβουλίου του Future of Privacy Forum, και πρώην Distinguished Visiting Fellow στο New York University Cybersecurity Center. Είναι επίσης co-Chair (μαζί με τον Héber Arcolezi) της Chair «Responsible AI: Design, Regulation and Conformity» στο Multidisciplinary Institute in Artificial Intelligence.
Έχει προσκληθεί για διαλέξεις και keynote ομιλίες σε επιστημονικές εκδηλώσεις σε περισσότερες από 40 χώρες και έχει υπηρετήσει ως νομικός εμπειρογνώμονας για ζητήματα προστασίας δεδομένων, διεθνών ροών δεδομένων και ρύθμισης της τεχνητής νοημοσύνης για κυβερνήσεις, διεθνείς οργανισμούς και ιδιωτικές εταιρείες.
Keynote στην Αθήνα: Legal Horizons in the Age of AI
Ο Θεόδωρος Χριστάκης θα είναι keynote speaker στο συνέδριο «Legal Horizons in the Age of AI: Risk, Responsibility and Regulation» (1 Απριλίου 2026, Μέγαρο Μουσικής Αθηνών).
Εγγραφή: nb.org
πηγή: newsbeast.gr
Συνδέσου με την ομάδα του lamiareport.gr στο Viber για άμεση ενημέρωση
Ακολούθησε το LamiaReport.gr στο Google News για όλες τς τελευταίες χρηστικές ειδήσεις
Ακολούθησε το LamiaReport στο Facebook ...για να μη χάνεις είδηση!