Από τις Διαφημίσεις στους Πυραύλους! (του Γιώργου Καρανάσιου)
Γράφει ο Γεώργιος Καρανάσιος.
Η Τεχνητή Νοημοσύνη (ΑΙ) παρουσιάστηκε ως το μεγάλο εργαλείο προόδου της εποχής μας. Όμως πίσω από τις υποσχέσεις για καλύτερη υγεία, εκπαίδευση και καθημερινή ευκολία, εξελίσσεται μια σκληρή σύγκρουση για το ποιος θα την ελέγχει και μέχρι πού μπορεί να φτάσει.
Στο επίκεντρο βρίσκονται δύο αμερικανικές εταιρείες, η Anthropic και η OpenAI.*
Η διαμάχη τους ξεκίνησε από κάτι που φαινόταν απλό: τις διαφημίσεις. Η Anthropic κατηγόρησε την OpenAI ότι η χρηματοδότηση μέσω διαφήμισης μπορεί να επηρεάζει τις απαντήσεις της τεχνητής νοημοσύνης.
Ο επικεφαλής της OpenAI, απάντησε ότι χωρίς διαφημίσεις η πρόσβαση δεν θα είναι καθολική. Το θέμα όμως έγινε πολύ πιο σοβαρό όταν μπήκε στη μέση το Πεντάγωνο.
Η Anthropic αρνήθηκε να επιτρέψει τη χρήση των μοντέλων της «για κάθε νόμιμο σκοπό», όταν αυτό σήμαινε πιθανή μαζική παρακολούθηση πολιτών και ανάπτυξη πλήρως αυτόνομων οπλικών συστημάτων.
Ο διευθύνων σύμβουλός της, D. Amodei, δήλωσε ότι τα σημερινά μοντέλα δεν είναι αρκετά αξιόπιστα για τέτοιες αποστολές και ότι τα θεμελιώδη δικαιώματα διακυβεύονται.
Η κυβέρνηση του Τραμπ αντέδρασε σκληρά, διακόπτοντας τη συνεργασία με την Anthropic.
Την ίδια στιγμή, η OpenAI υπέγραψε συμφωνία με το Υπουργείο Άμυνας, δηλώνοντας ότι θέτει «κόκκινες γραμμές», όπως η απαγόρευση εγχώριας μαζικής παρακολούθησης και η διατήρηση ανθρώπινης ευθύνης στη χρήση βίας.
Η τεχνητή νοημοσύνη σήμερα μπορεί να αναλύει τεράστιους όγκους δεδομένων από κάμερες, δορυφόρους, κινητά τηλέφωνα και να αναγνωρίζει πρόσωπα μέσα σε πλήθη σε πραγματικό χρόνο.
Όταν τέτοια συστήματα ενσωματώνονται σε drones ή πυραύλους, ο αλγόριθμος μπορεί να προτείνει ή να επιλέγει στόχους.
Υπάρχει θεωρητικά άνθρωπος στον έλεγχο, αλλά όσο αυξάνεται η αυτοματοποίηση, η ανθρώπινη παρέμβαση συρρικνώνεται.
Το ερώτημα δεν είναι αν η τεχνητή νοημοσύνη είναι καλή ή κακή. Είναι ποιος αποφασίζει για τη χρήση της.
Μπορούν οι εταιρείες να θέτουν όρια στο κράτος; Ή το κράτος, επικαλούμενο την εθνική ασφάλεια, να έχει τον τελευταίο λόγο;
Η γερουσιαστής El. Warren ζήτησε ακροάσεις, θέτοντας ευθέως το ερώτημα αν μια εταιρεία τιμωρείται επειδή αρνείται να συμβάλει σε μαζική παρακολούθηση ή στην κατασκευή «ρομπότ-δολοφόνων».
Η ίδια η φράση δείχνει πόσο βαθύ είναι το ρήγμα. Για τον μέσο πολίτη, όλα αυτά ίσως φαίνονται μακρινά.
Όμως τα ίδια συστήματα που μπορούν να χρησιμοποιηθούν σε μια εμπόλεμη ζώνη, μπορούν να εφαρμοστούν και σε μια πόλη, σε μια διαδήλωση, σε μια κοινωνία που παρακολουθείται στο όνομα της ασφάλειας.
Η τεχνητή νοημοσύνη δεν είναι πια απλώς ένα τεχνολογικό εργαλείο. Είναι πεδίο πολιτικής σύγκρουσης και ηθικής δοκιμασίας.
Και το κρίσιμο ερώτημα είναι αν θα μπουν σαφή, δημοκρατικά όρια πριν η τεχνολογία προχωρήσει πιο γρήγορα από την ίδια μας τη συνείδηση.
* Η εταιρεία Anthropic αποτιμάται στα 380 δισεκατομμύρια δολάρια. Η OpenAI αποτιμάται πάνω από 800 δισεκατομμύρια. Και οι δύο έχουν ετήσια έσοδα δισεκατομμυρίων και πελάτες από τον ιδιωτικό και τον δημόσιο τομέα.
Καρανάσιος Γεώργιος – gkaranasios24@gmail.com
Υ.Γ1. Η Τεχνητή Νοημοσύνη είναι ένα εργαλείο και ότι το κρίσιμο ζήτημα είναι η σωστή ρύθμιση και ο δημοκρατικός έλεγχος.
Από μόνη της δεν είναι, ούτε καλή, ούτε κακή. Είναι όμως εξαιρετικά ισχυρή. Και κάθε ισχυρό εργαλείο, όταν συνδυάζεται με στρατιωτική ισχύ και πολιτική βούληση, μπορεί να αλλάξει ριζικά τις ισορροπίες.
Υ.Γ2. Στις σύγχρονες ισραηλινές επιχειρήσεις αυτού του τύπου (νοείται και των ΗΠΑ), η Τεχνητή Νοημοσύνη (AI) χρησιμοποιείται συστηματικά για την ανάλυση τεράστιου όγκου δεδομένων από κατασκοπευτικά δίκτυα και δορυφόρους για τον ακριβή εντοπισμό στόχων υψηλής αξίας σε πραγματικό χρόνο.
Γίνεται ένα φοβερό όπλο το οποίο σε συνδυασμό με την εφαρμογή του "δόγματος του δικαίου της ισχύος" διαμορφώνει ένα νέο φοβερό ολοκληρωτισμό μπροστά στον οποίο όλοι οι προηγούμενοι ωχριούν.
Συνδέσου με την ομάδα του lamiareport.gr στο Viber για άμεση ενημέρωση
Ακολούθησε το LamiaReport.gr στο Google News για όλες τς τελευταίες χρηστικές ειδήσεις
Ακολούθησε το LamiaReport στο Facebook ...για να μη χάνεις είδηση!