Αλέξανδρος Σχισμένος - Aυτολεξεί https://www.aftoleksi.gr Eλευθεριακός ψηφιακός τόπος & εκδόσεις Sun, 29 Mar 2026 09:07:22 +0000 el hourly 1 https://wordpress.org/?v=6.9.4 https://www.aftoleksi.gr/wp-content/uploads/2019/10/cropped-logo-web-transparent-150x150.png Αλέξανδρος Σχισμένος - Aυτολεξεί https://www.aftoleksi.gr 32 32 231794430 Ηχητικό: «Ορίζοντες Άμεσης Δημοκρατίας σε καιρό Κοινωνικής & Περιβαλλοντικης Κατάρρευσης» https://www.aftoleksi.gr/2026/03/29/ichitiko-orizontes-amesis-dimokratias-se-kairo-koinonikis-amp-perivallontikis-katarreysis/?utm_source=rss&utm_medium=rss&utm_campaign=ichitiko-orizontes-amesis-dimokratias-se-kairo-koinonikis-amp-perivallontikis-katarreysis https://www.aftoleksi.gr/2026/03/29/ichitiko-orizontes-amesis-dimokratias-se-kairo-koinonikis-amp-perivallontikis-katarreysis/#respond Sun, 29 Mar 2026 08:33:05 +0000 https://www.aftoleksi.gr/?p=22566 Στις 14/03/26, στο αυτοδιαχειριζόμενο χώρο TRISE, ως Αυτολεξεί διοργανώσαμε εκδήλωση-παρουσίαση του βιβλίου “Horizons of Direct Democracy: Revolutionary Politics in an Age of Social and Environmental Collapse” του Yavor Tarinski. Ακολουθεί το ηχητικό τις εκδήλωσης. Για το βιβλίο μίλησαν οι: Modibo Kadalie, μέσω ζωντανής τηλεδιάσκεψης (συγγραφέας, ιστορική φιγούρα των κινημάτων για τα πολιτικά δικαιώματα & του [...]

The post Ηχητικό: «Ορίζοντες Άμεσης Δημοκρατίας σε καιρό Κοινωνικής & Περιβαλλοντικης Κατάρρευσης» first appeared on Aυτολεξεί.

]]>
Στις 14/03/26, στο αυτοδιαχειριζόμενο χώρο TRISE, ως Αυτολεξεί διοργανώσαμε εκδήλωση-παρουσίαση του βιβλίου “Horizons of Direct Democracy: Revolutionary Politics in an Age of Social and Environmental Collapse” του Yavor Tarinski. Ακολουθεί το ηχητικό τις εκδήλωσης.

Για το βιβλίο μίλησαν οι:

  • Modibo Kadalie, μέσω ζωντανής τηλεδιάσκεψης (συγγραφέας, ιστορική φιγούρα των κινημάτων για τα πολιτικά δικαιώματα & του παναφρικανισμού)
  • Αλέξανδρος Σχισμένος (δρ. φιλοσοφίας, μεταδιδακτορικός ΑΠΘ)
  • Yavor Tarinski (συγγραφέας του βιβλίου)

Ο συγγραφέας του βιβλίου Yavor Tarinski παρουσιάζει μία ευανάγνωστη μελέτη σχετικά με την πολιτική της άμεσης δημοκρατίας. Το Ορίζοντες Άμεσης Δημοκρατίας: Επαναστατική Πολιτική στον καιρό της Κοινωνικής & Περιβαλλοντικης Κατάρρευσης αποτελεί έναν σύντομο και προσιτό τόμο που εξετάζει την πολιτική σκέψη βασισμένη σε έρευνα πάνω στο έργο του Κορνήλιου Καστοριάδη, του C.L.R. James κ.ά., ενώ παράλληλα αναδεικνύει μία άλλη ιστορία με δημοκρατικά παραδείγματα, από τα Βαλκάνια έως τη Λατινική Αμερική, τη Δυτική Ασία και πέρα ​​από αυτήν.

Στο έργο αυτό, ο συγγραφέας επιχειρεί να αναδείξει τις χωρικές και χρονικές διαστάσεις της δημοκρατικής πολιτικής και τις εφαρμογές της στο παρελθόν, το παρόν και το πιθανό μέλλον. Ερευνάται η σχέση μεταξύ δημοκρατίας και αστικού χώρου, ενώ εξετάζονται εγχειρήματα λαϊκής ενδυνάμωσης στον πραγματικό κόσμο.

Το περιεχόμενο του βιβλίου εμπλουτίζεται περαιτέρω από τον πρόλογο της κοινωνικής οικολόγου και ανθρωπολόγου Eleanor Finley και τον διάλογο μεταξύ του συγγραφέα και του αφροαμερικανού επαναστάτη-στοχαστή Modibo Kadalie. Η επιμέλεια έχει γίνει από τον Andrew Zonneveld ενώ το εξώφυλλο είναι ένα έργο, ζωγραφισμένο στο χέρι, της καλλιτέχνιδας Julia Simoniello.

 

The post Ηχητικό: «Ορίζοντες Άμεσης Δημοκρατίας σε καιρό Κοινωνικής & Περιβαλλοντικης Κατάρρευσης» first appeared on Aυτολεξεί.

]]>
https://www.aftoleksi.gr/2026/03/29/ichitiko-orizontes-amesis-dimokratias-se-kairo-koinonikis-amp-perivallontikis-katarreysis/feed/ 0 22566
Ο στοχαστής Χάμπερμας ενάντια στη “Μηχανή Χάμπερμας” της Google https://www.aftoleksi.gr/2026/03/16/habermas-vs-habermasmachine/?utm_source=rss&utm_medium=rss&utm_campaign=habermas-vs-habermasmachine https://www.aftoleksi.gr/2026/03/16/habermas-vs-habermasmachine/#respond Mon, 16 Mar 2026 05:00:47 +0000 https://www.aftoleksi.gr/?p=22400 του Αλέξανδρου Σχισμένου Ο Jurgen Habermas έφυγε από τον κόσμο την Παρασκευή 14 Μαρτίου 2026 σε ηλικία 96 ετών. Υπήρξε ο άξιος επίγονος της Κριτικής θεωρίας της σχολής της Φρανκφούρτης και σπουδαίος στοχαστής της δημοκρατικής πολιτικής και του επικοινωνιακού πράττειν ή και της δημοκρατικής πολιτικής ως επικοινωνιακού πράττειν. Επιπλέον, υπήρξε ένας από τους τελευταίους μεγάλους [...]

The post Ο στοχαστής Χάμπερμας ενάντια στη “Μηχανή Χάμπερμας” της Google first appeared on Aυτολεξεί.

]]>
του Αλέξανδρου Σχισμένου

Ο Jurgen Habermas έφυγε από τον κόσμο την Παρασκευή 14 Μαρτίου 2026 σε ηλικία 96 ετών. Υπήρξε ο άξιος επίγονος της Κριτικής θεωρίας της σχολής της Φρανκφούρτης και σπουδαίος στοχαστής της δημοκρατικής πολιτικής και του επικοινωνιακού πράττειν ή και της δημοκρατικής πολιτικής ως επικοινωνιακού πράττειν. Επιπλέον, υπήρξε ένας από τους τελευταίους μεγάλους στοχαστές της κοινωνικο-ιστορικής γέφυρας ανάμεσα στον αναλογικό και τον ψηφιακό αιώνα και, ως κριτικός θεωρητικός, ιδιαίτερα οξυδερκής όσον αφορά τις επιπτώσεις των ψηφιακών τεχνολογιών στη δημόσια σφαίρα, ιχνηλατώντας τους σύγχρονους κοινωνικούς μετασχηματισμούς. Παραδόξως το 2024, στα τέλη της ζωής του, υπήρξε θύμα της τεχνοκρατικής ιδεολογίας που ο ίδιος κατέκρινε, όταν η DeepMind της Google παρουσίασε ένα μοντέλο Τεχνητής Νοημοσύνης με το όνομα “Μηχανή Χάμπερμας” / Habermas Machine.

Μα πριν φτάσουμε στην τεχνολογία της “Μηχανή Χάμπερμας”, ας θυμηθούμε πώς θεωρούσε ο στοχαστής Χάμπερμας την τεχνολογία.

Ήδη από το πρώτο του βιβλίο το 1962 με τίτλο Η Αλλαγή δομής της δημοσιότητας [Strukturwandel der Offentlichkeit], ο Χάμπερμας ασχολήθηκε με την έννοια της δημόσιας σφαίρας όπως διαμορφώνεται ως πεδίο διαπραγμάτευσης μεταξύ της δημοκρατικής κοινωνίας των πολιτών και του κρατικού πολιτικού συστήματος. Σε αυτό το πλαίσιο, κατανοεί την ιδεολογική λειτουργία της τεχνολογίας στις σύγχρονες βιομηχανικές κοινωνίες, η οποία διασαλεύει τη δημοκρατική κοινωνική αμοιβαιότητα προς όφελος των κεφαλαιοκρατικών μηχανισμών εκμετάλλευσης.

Το 1968, στο δοκίμιό του Η Τεχνολογία και η Επιστήμη ως «Ιδεολογία» [Technik und Wissenschaft als Ideologie], ο Χάμπερμας ανατρέπει με επιχειρήματα τον παραδοσιακό ισχυρισμό ότι η τεχνική είναι ουδέτερη. Παρατηρεί πως, ιδιαιτέρως στον προηγμένο καπιταλισμό, τα «τεχνικά προβλήματα» δεν διακρίνονται πλέον από τα «πρακτικά προβλήματα» αλλά συγχωνεύονται σε μια «τεχνοκρατική συνείδηση» που αναδιατυπώνει τα θεμελιώδη πολιτικά ζητήματα ως προβλήματα τεχνικής διαχείρισης. Η τεχνοκρατική ιδεολογία οδηγεί σε συρρίκνωση της δημόσιας σφαίρας καθώς υποβαθμίζει την κοινωνία σε ένα «κυβερνητικό σύστημα ανθρώπου-μηχανής». Η χαμπερσιανή κριτική στην τεχνοκρατική ιδεολογία στα τέλη της δεκαετίας του 1960 συμπίπτει χρονικά με την έκρηξη της πληροφορικής κυβερνητικής και την εκκίνηση του τεχνοεπιστημονικού προγράμματος της Τεχνητής Νοημοσύνης.

Μετά την εμπειρία των κοινωνικών κινημάτων της δεκαετίας του 1960, στο βιβλίο του Η Θεωρία του Επικοινωνιακού Πράττειν» [Theorie des kommunikαtiven Hαndelns, 2 τόμ., Suhrkamp Verlag, Φραγκφούρτη 1981], ο Χάμπερμας διακρίνει δύο βασικές σφαίρες της σύγχρονης κοινωνίας: τον βιόκοσμο και το σύστημα.

Ο βιόκοσμος είναι το συμβολικό πεδίο των κοινωνικών σημασιών, της πολιτισμικής γνώσης και των κανονιστικών βεβαιοτήτων που αναπαράγονται μέσω επικοινωνιακών πρακτικών που προσανατολίζονται στην αμοιβαία κατανόηση. Το σύστημα, αντίθετα, περιλαμβάνει θεσμικούς μηχανισμούς της υλικής αναπαραγωγής του κοινωνικού, όπως η αγορά και το κράτος, οι οποίοι συντονίζουν τη δράση μέσω των «κατευθυντήριων μέσων» του χρήματος και της εξουσίας. Για τον Χάμπερμας, το κοινωνικό πράττειν συναρθρώνεται και συντονίζεται από την επικοινωνιακή διυποκειμενικότητα. Με ορθολογικούς όρους, κάθε λόγος που είναι προσανατολισμένος στην διυποκειμενική κατανόηση, δηλαδή την αμοιβαία συνεννόηση, εκπληρώνει τέσσερις αξιώσεις καθολικής εγκυρότητας:

  • Την κατανοησιμότητα [Verständlichkeit] καθώς κάθε λόγος πρέπει να είναι κατανοητός εντός ενός κοινού γλωσσικού και συμβολικού κώδικα.
  • Το αίτημα της αλήθειας: Το προτασιακό περιεχόμενο πρέπει να αντιστοιχεί σε καταστάσεις πραγμάτων στον αντικειμενικό κόσμο.
  • Την κανονιστική ορθότητα : Η εκφορά πρέπει να συμμορφώνεται με τις κανονιστικές προσδοκίες του κοινωνικού κόσμου.
  • Και την ειλικρίνεια [Wahrhaftigkeit]: Ο ομιλητής πρέπει να εκφράσει με ειλικρίνεια τις υποκειμενικές του προθέσεις και τα συναισθήματά του.

    Ο στόχος του επικοινωνιακού πράττειν είναι μια «συναίνεση που βασίζεται στη διυποκειμενική αναγνώριση ισχυρισμών εγκυρότητας που μπορούν να επικριθούν», η οποία ενθαρρύνει την κοινωνική συνοχή και την αλληλεγγύη χωρίς την ανάγκη εξωτερικού καταναγκασμού. Η ειλικρίνεια θεμελιώνει την κοινή εμπιστοσύνη στη διυποκειμενική επικοινωνία στο υποκειμενικό πεδίο, έτσι ώστε η κάθε εκφορά έγκυρου λόγου να είναι εμπρόθετη έκφραση του ομιλητή, καθώς η αλήθεια και η κανονιστική ορθότητα είναι αξιώσεις ισχύος των συνομιλητών. Όμως στην αμοιβαία συναίνεση εναντιώνονται οι δυνάμεις της συστημικής κυριαρχίας και της καπιταλιστικης εκμετάλλευσης της επικοινωνιακής λειτουργίας.

    H κεντρική παθολογία της νεωτερικότητας, σύμφωνα με τον Χάμπερμας, είναι η «αποικιοποίηση του βιόκοσμου», που συμβαίνει όταν συστημικοί μηχανισμοί εργαλειακής ορθολογικότητας διεισδύουν σε τομείς του βιόκοσμου όπου ο συντονισμός της δράσης θα πρέπει να εξαρτάται από την διυποκειμενική αμοιβαία κατανόηση. Αυτή όμως η τάση ενισχύεται με την ψηφιακή επανάσταση. Η τεχνολογική αποικιοποίηση της δημόσιας σφαίρας οδηγεί σε άνοδο των αντιδημοκρατικών τεχνοκρατικών τάσεων στο κοινωνικο-ιστορικό πεδίο.

    Στην ψηφιακή εποχή, η επέκταση της ψηφιοποίησης εντείνει την αποικιοποίηση του βιόκοσμου στο μικροκοινωνικό πεδίο της καθημερινότητας, επανερμηνεύοντας το υπόβαθρο του συμβολικού νοήματος ως ένα σύνολο δεδομένων που μπορεί να υποβληθεί σε επεξεργασία με όρους τεχνικού ελέγχου. Το 2022, στο τελευταίο βιβλίο του, Μια νέα μεταβολή δομής της δημόσιας σφαίρας και η διαβουλευτική πολιτική, ο Χάμπερμας υποστηρίζει ότι η «πλατφορμοποίηση» του πολιτικού λόγου υπονομεύει τη σχέση αντιστοιχίας μεταξύ των κυβερνητικών δραστηριοτήτων και της ενημέρωσης της κοινωνίας των πολιτών.

    Η ψηφιοποίηση εισάγει μια θεμελιώδη ρήξη, καταργώντας τη δημοσιογραφική διαμεσολάβηση και τη δημόσια κριτική λειτουργία που κάποτε διασφάλιζαν τον ποιοτικό έλεγχο στη δημόσια σφαίρα. Ενώ η ψηφιακή δικτύωση ενδυναμώνει τους χρήστες ως δημιουργούς, η έλλειψη κριτηρίων και η διάβρωση των θεσμών εγκυρότητας, όπως τα παραδοσιακά ΜΜΕ, επιτρέπει τον πολλαπλασιασμό των «ημι-δημόσιων» καναλιών και των κλειστών θαλάμων ηχούς [echo-chambers] που αποσιωπούν τη διαφωνία. Αυτός ο κατακερματισμός οδηγεί σε δημοκρατική οπισθοδρόμηση, όπου οι πολίτες δεν αντιλαμβάνονται πλέον τις αντιγνωμίες τους ως διαφωνίες που γονιμοποιούν τον δημόσιο διάλογο, αλλά ως ταυτοτικές συγκρούσεις. Ο ψηφιακός κατακερματισμός της δημόσιας σφαίρας πλήττει καίρια τη δυνατότητα μιας διαβουλευτικής πολιτικής, όπου η λήψη αποφάσεων βασίζεται στην ανταλλαγή επιχειρημάτων. Ο Χάμπερμας, ως υπέρμαχος του αντιπροσωπευτικού δημοκρατικού ελέγχου, ανησυχούσε ιδιαίτερα για την επίδραση της ψηφιακής τεχνολογίας στην εκλογική αποτύπωση της κοινής γνώμης:

    «Πρέπει να υπάρχει μια αναγνωρίσιμη σύνδεση μεταξύ των αποτελεσμάτων της κυβερνητικής δράσης και της συμβολής των αποφάσεων των ψηφοφόρων, έτσι ώστε οι πολίτες να μπορούν να την αναγνωρίσουν ως επιβεβαίωση της λογικής δύναμης της δικής τους δημοκρατικής διαμόρφωσης γνώμης και βούλησης. Οι πολίτες πρέπει να είναι σε θέση να αντιλαμβάνονται τη διαφωνία τους ως κάτι που έχει συνέπειες, αλλά και ως μια διαμάχη για το ποιοι λόγοι είναι πιο βάσιμοι».

    Για να αντιμετωπίσει τον κατακερματισμό της ψηφιακής δημόσιας σφαίρας, ο Χάμπερμας μιλά για την “επιταγή συνταγματικού ελέγχου” του ψηφιακού κόσμου, δηλαδή τη θέσπιση δεσμευτικών κανονισμών για την ψηφιακή κοινωνία, και τη δημιουργία μορφών ψηφιακής “λαϊκής κυριαρχίας” όπου ο σχεδιασμός και η χρήση των τεχνολογιών θα ελέγχονται δημόσια προκειμένου να υπηρετούν τις ανάγκες της κοινωνίας των χρηστών.

    Ωστόσο, παρά την κριτική απέναντι στις κυρίαρχες τάσεις της ψηφιοποίησης και της δεδομενοποίησης, ο Χάμπερμας επέμεινε στην επικοινωνιακή διάσταση της δημόσιας σφαίρας και στη διαβουλευτική πτυχή της δημοκρατικής πολιτικής. Στον φιλοσοφικό πυρήνα της χαμπερμασιανής σύλληψης της δημοκρατίας βρίσκεται η διυποκειμενικότητα της επικοινωνιακής ορθολογικότητας. Όπως ξέρουμε, ο Χάμπερμας διαφωνούσε με τον Ζακ Ρανσιέρ, ο οποίος στη συνομιλία μας το 2017 κάτω από την Ακρόπολη μας δήλωσε αποφασιστικά:

    “Η δημοκρατία δεν είναι επικοινωνία”.

    Ο Χάμπερμας υποστήριζε ένα μοντέλο ανοιχτής επικοινωνιακής ορθολογικότητας, όπου στόχος της δημοκρατικής διαβουλευτικής πολιτικής είναι η επίτευξη αμοιβαίας κατανόησης, συναίνεσης και συμφωνίας βασισμένης στην εγκυρότητα. Αντίθετα, ο Ρανσιέρ υποστηρίζει ότι η δημοκρατική πολιτική καθορίζεται από τη δημόσια διαφωνία [dissensus]που αποκαλύπτει, αντί να επιστεγάζει, τις βαθιά ριζωμένες ανισότητες εξουσίας.

    Δεν πρέπει, λοιπόν, να μας προκαλεί έκπληξη το γεγονός ότι η DeepMind της Google άντλησε έμπνευση από τη φιλοσοφία του Χάμπερμας περί επικοινωνιακού πράττειν και ονόμασε Μηχανή Χάμπερμας [Habermas Machine] τον ψηφιακό διαμεσολαβητή Τεχνητής Νοημοσύνης που παρουσίασε το 2024.

    Η Habermas Machine είναι ένα Μεγάλο Γλωσσικό Μοντέλο [LLM] ψηφιακής διαβούλευσης για ομάδες ανθρώπων με αντικρουόμενες πολιτικές απόψεις, που λειτουργεί ως διαμεσολαβητής Τεχνητής Νοημοσύνης προκειμένου να βρουν συναίνεση ή έστω κοινό έδαφος σε ζητήματα που διαφωνούν (Tessler, M. H., Bakker, et al 2024).

    Ο προγραμματισμένος στόχος της ΤΝ είναι να επιτύχει μία αρμονική ισορροπία στο σημείο τομής του «τριπλού διλήμματος της διαβούλευσης»: τις εντάσεις μεταξύ της ισότητας της συμμετοχής, της ποιότητας της διαβούλευσης και της κλίμακας μεγέθους της συλλογικότητας.

    Η Μηχανή Χάμπερμας λειτουργεί παρέχοντας ερωτηματολόγια στα μέλη, και ανασυνθέτοντας τις απαντήσεις προκειμένου να στοιχειοθετήσει δηλώσεις συναίνεσης που ενσωματώνουν διαφορετικές προοπτικές σε κοινά πεδία συμφωνίας, αποτρέποντας παράλληλα την «τυραννία της πλειοψηφίας».

    Η Μηχανή ακολουθεί ένα δομημένο πρωτόκολλο σχεδιασμένο να συνθέτει συλλογικές θέσεις συγκρίνοντας ατομικές αποκρίσεις σε δομημένα ερωτηματολόγια:

    1. Φάση Εισαγωγής [Input phase]: Στους συμμετέχοντες παρουσιάζεται μια ερώτηση δημόσιου ενδιαφέροντος και τους ζητείται να δώσουν το βαθμό συμφωνίας τους και μια σύντομη παράγραφο που να αιτιολογεί τη θέση τους.
    2. Φάση Δημιουργίας [Generation phase]: Το Μεγάλο Γλωσσικό Μοντέλο (LLM) καταγράφει τις ατομικές απαντήσεις και εντοπίζει τα σημεία συμφωνίας και διαφωνίας καταρτώντας έναν πίνακα προτιμήσεων όπου χαρτογραφείται το φάσμα των αποκλίσεων και μία σειρά από πιθανές συναινετικές προτάσεις.
    3. Φάση Πρόβλεψης [Prediction phase]: Στη συνέχεια, χρησιμοποιείται ένα «μοντέλο ανταμοιβής» για να προβλεφθεί πώς κάθε μέλος θα κατατάξει τις πιθανές συναινετικές προτάσεις με βάση την αρχική του απάντηση.
    4. Προσομοιωμένη Εκλογή [Simulated election[: Το σύστημα εκτελεί μια προσομοιωμένη εκλογή για να επιλέξει την πιο πιθανή συναινετική πρόταση.
    5. Βελτίωση και Κριτική [Refinement and Critique]: Το σύστημα προτείνει την επιλεγμένη συναινετική πρόταση στα μέλη και αποδέχεται βελτιώσεις και κριτικές από το κάθε μέλος ξεχωριστά προκειμένου να τρέξει ξανά τη διαδικασία παραγωγής, πρόβλεψης και προσομοιωμένης εκλογής μέχρι να καταλήξει σε μια συναινετική πρόταση κοινώς αποδεκτή από όλα τα μέλη.

    Η Google DeepMind διεξήγαγε ένα πείραμα με τη «Μηχανή Χάμπερμας» το 2024 με 5.734 άτομα από τη Μεγάλη Βρετανία, που επιλέχθηκαν ώστε να αντιπροσωπεύουν τις δημογραφικές κατανομές φύλου, ηλικίας, εισοδήματος και χωρίστηκαν σε πενταμελείς ομάδες διαβούλευσης πάνω σε διαφορετικά πολιτικά ζητήματα, με την ΤΝ ως διαμεσολαβητή και συντονιστή. Σύμφωνα με τους μελετητές (Tessler et al.) το 56% των συμμετεχόντων δήλωσαν ότι η Τεχνητή Νοημοσύνη τους φάνηκε καλύτερος διαμεσολαβητής και συντονιστής σε σχέση με την παραδοσιακή ανθρώπινη παρέμβαση.

    Θα μπορούσαμε εύκολα να καταλάβουμε ότι η Μηχανή Χάμπερμας της Google DeepMind είναι μια ουσιαστική παρωδία της φιλοσοφίας του επικοινωνιακού πράττειν του μεγάλου στοχαστή. Η αλγοριθμική δομή της Τεχνητής Νοημοσύνης αποκλείει εξ ορισμού τις θεμελιώδεις αξιώσεις εγκυρότητας του Χάμπερμας. Η λειτουργία της Μηχανής Χάμπερμας δεν έχει κατανοησιμότητα – καθώς οι προσομοιώσεις και οι επιλογές γίνονται αυτόματα από το σύστημα – ούτε αξίωση της αλήθειας – καθώς το σύστημα κάνει μόνο στατιστική ανάλυση – ούτε κάποια “ειλικρίνεια” – καθώς οι παράλληλες υπολογιστικές διαδικασίες των Μεγάλων Γλωσσικών Μοντέλων παράγουν δομική αδιαφάνεια [black box].

    Ο ίδιος ο Χάμπερμας στις 16 Απριλίου του 2025 παραχώρησε συνέντευξη στην εφημερίδα Süddeutsche Zeitung, όπου δήλωσε δημόσια πως δεν είχε καμία συμμετοχή στην κατασκευή της μηχανής και διαμαρτυρήθηκε ότι η χρήση του ονόματός του ήταν καταχρηστική και παραπλανητική, καθώς εξυπηρετούσε «διαφημιστικούς σκοπούς».

    Φυσικά ο 95χρονος Χάμπερμας είχε την οξυδέρκεια να διακρίνει ότι η παραγωγική Τεχνητή Νοημοσύνη αποτελεί το αντίθετο της οποιασδήποτε διαβουλευτικής πολιτικής καθώς είναι η πραγμάτωση στον υπέρτατο βαθμό του φαντασιακού της ανάθεσης και της αποξένωσης των πολιτών από την πολιτική.

    Έπεσε, λοιπόν, και ο Χάμπερμας θύμα της μυθοπληροφορίας και της ψηφιακής βαρβαρότητας που συνιστά η ψηφιοποίηση του επικοινωνιακού πράττειν. Στην πραγματικότητα η «Μηχανή Χάμπερμας», όπως κάθε μοντέλο Τεχνητής Νοημοσύνης αφαιρεί την ανθρώπινη υποκειμενικότητα από την ίδια τη διαδικασία της διαβούλευσης, καταργώντας εξ ορισμού τη δημόσια σφαίρα της διυποκειμενικής επικοινωνίας την οποία υποτίθεται ότι αναπαράγει.

    Και τι γίνεται με το δημοκρατικό ερώτημα;

    Θυμήθηκα την παλαιά διαμάχη μεταξύ Καστοριάδη και Χάμπερμας σχετικά με το αν προηγείται η θέσμιση της επικοινωνίας ή αντίστροφα.

    Ο Χάμπερμας παραπέμπει στη γλώσσα προκειμένου να εξηγήσει τη διυποκειμενικότητα βάσει της θεωρίας της επικοινωνίας. Διαφωνεί με τον Καστοριάδη, διότι δεν θέλει να δεχτεί την προτεραιότητα του φαντασιακού έναντι του επικοινωνιακού. Αυτή η κίνηση ωστόσο επαναφέρει την πρωτοκαθεδρία του συμβολικού έναντι του φαντασιακού, την οποία ο Καστοριάδης, είχε αναιρέσει. Όταν λοιπόν ο Χάμπερμας στο βιβλίο του Ο φιλοσοφικός λόγος της νεωτερικότητας υποστηρίζει ότι ο Καστοριάδης «δεν μπορεί να προσφέρει κανένα σχήμα για τη διαμεσολάβηση μεταξύ ατόμου και κοινωνίας», δεν λαμβάνει υπόψιν την κοινωνική λειτουργία της γλώσσας ως πρωταρχικό θεσμό κοινωνιογένεσης, καθώς και την ψυχική λειτουργία της μετουσίωσης που, για τον Καστοριάδη, αναδεικνύουν το άτομο ως θεσμό της κοινωνίας, την ύπαρξη ως χρονικότητα και το κοινωνικοϊστορικό ως συν-είναι του υποκειμενικού και του αντικειμενικού.

    Δεν λαμβάνει υπόψιν, συνεπώς, ο Χάμπερμας τη συνύφανση κοινωνίας – Ιστορίας και την αντίθεση ψυχής – κοινωνίας όπως παρουσιάζεται στην κοινωνική συνάρθρωση του χρόνου στη φιλοσοφία του Καστοριάδη. Η διαφορά των δύο στοχαστών εντοπίζεται ουσιαστικά στο ερώτημα αν προηγείται η θέσμιση ή η επικοινωνία.

    Ο Καστοριάδης σε επιστολή του στον Jean-Marc Ferry στις 2 Ιουλίου 1985, όπως παρατίθεται από τον F. Dosse, γράφει:

    «Νομίζω ότι το κρίσιμο ζήτημα είναι ακριβώς αυτό, και είναι εξαιρετικά απλό: τι είδους επικοινωνία είναι δυνατή δίχως θέσμιση, και ειδικότερα δίχως γλώσσα; Είναι, άραγε, η γλώσσα ουδέτερος φορέας σε σχέση με το αντικείμενο της επικοινωνίας;»

    Ο Καστοριάδης αντιλαμβάνεται ότι η προτεραιότητα της επικοινωνίας έναντι της θέσμισης θα καθιστούσε τη θέσμιση μορφή επικοινωνίας, ενώ η επικοινωνία προϋποθέτει την γλώσσα, που είναι θεμελιώδης μορφή θέσμισης της κοινωνίας, αλλά και του ατόμου εντός της κοινωνίας.

    Στην εποχή της ψηφιακής βαρβαρότητας που διανύουμε, η κοινωνικο-ιστορική δυνατότητα της διαβεβουλευμένης αυτοθέσμιση απειλείται από ένα γνωστικό και πολιτικό κλείσιμο όπου το μέλλον αποτελεί αντικείμενο αλγοριθμικής πρόβλεψης και διαχείρισης. Η «Μηχανή του Χάμπερμας» μπορεί να θεωρηθεί ως ένα συμβολικό προϊόν αυτού του γνωστικού κλεισίματος, ένα όργανο σχεδιασμένο να αυτοματοποιεί τον ίδιο τον διάλογο που, σύμφωνα με τον Χάμπερμας, θα έπρεπε να διανοίγει τον ορίζοντα της κοινωνικής αυτονομίας.

    Φαίνεται ότι η δημοκρατία, που αφορά τους όρους της κοινωνικής μας ζωής, δεν μπορεί να αναχθεί σε μια αμοιβαία δημόσια συναίνεση, χωρίς να εμπερικλείει την ανοιχτή δυνατότητα της δημόσιας διαφωνίας.

    Το απόγευμα του Σαββάτου της 15ης Μαρτίου 2026, διάφοροι άνθρωποι συναντηθήκαμε διά ζώσης στον φιλόξενο και όμορφο χώρο του TRISE στο διατηρητέο αστικό τριώροφο της Κολοκοτρώνη, για την παρουσίαση του βιβλίου του Yavor Tarinski με τίτλο HORIZONS OF DIRECT DEMOCRACY, στο πλαίσιο της οποίας είχαμε την ευκαιρία να συνομιλήσουμε διαδικτυακά με τους εκδότες του στην Ατλάντα σε ζωντανή σύνδεση, μία δυνατότητα που μας προσφέρουν οι ψηφιακές τεχνολογίες παγκόσμιας δικτύωσης.

    Ο Modibo Kadalie έδωσε έμφαση στο κεφάλαιο του βιβλίου που αναλύει τη σημαντικότητα της φυσικής παρουσίας και της σωματικής διάστασης της κοινωνικής συνύπαρξης για την άμεση δημοκρατία. Υποστήριξε πως αυτό το σημείο είναι ιδιαίτερα επίκαιρο στην εποχή μας, όπου οι ψηφιακές τεχνολογίες και τηλεπικοινωνίες τροφοδοτούν θεωρίες περί ψηφιακής δημοκρατίας ή ηλεκτρονικής δημοκρατίας [digital democracy / e- democracy] ή ακόμη και «εφαρμογοκρατίας» [appocracy], θεωρίες που προωθούν την παθητικότητα των υποκειμένων ως ψηφιακών καταναλωτών εικονικής πολιτικής.

    Στην πολύωρη συζήτηση που ακολούθησε, δεν έλειψαν οι αναφορές και στο όνομα του Χάμπερμας, που παραμένει ζωντανό στη δημόσια σφαίρα.


    Βιβλιογραφία

    Dosse, Fr. (2015). Καστοριάδης, μια ζωή. εκδ. Πόλις

    Habermas, J. (1962). The structural transformation of the public sphere: An inquiry into a category of bourgeois society (T. Burger & F. Lawrence, Trans.). MIT Press.

    Habermas, J. (1970). Technology and science as “ideology.” In Toward a rational society: Student protest, science, and politics (J. J. Shapiro, Trans.). Beacon Press. (1968).

    Habermas, J. (1984). The theory of communicative action: Vol. 1. Reason and the rationalization of society (T. McCarthy, Trans.). Beacon Press.

    Habermas, J. (1987). The theory of communicative action: Vol. 2. Lifeworld and system: A critique of functionalist reason (T. McCarthy, Trans.). Beacon Press.

    Habermas, J. (1987). Ο φιλοσοφικός λόγος της νεωτερικότητας. εκδ. Αλεξάνδρεια

    Habermas, J. (2025). Μια Νέα Μεταβολή Δομής της Δημόσιας Σφαίρας και η Διαβουλευτική Πολιτική. Πανεπιστημιακές Εκδόσεις Κρήτης.

    Tarinski, Y. (2026). Horizons of Direct Democracy: Revolutionary Politics in an Age of Social and Environmental Collapse. On our Own Authority Press.

    Tessler, M. H., Bakker, M. A., Jarrett, D., Sheahan, H., van de Braak, M., Singh, H.,… & Summerfield, C. (2024). “AI can help humans find common ground in democratic deliberation.” Science, 386(6718), 216-221.

    The post Ο στοχαστής Χάμπερμας ενάντια στη “Μηχανή Χάμπερμας” της Google first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/03/16/habermas-vs-habermasmachine/feed/ 0 22400
    Η Τεχνητή Νοημοσύνη στον πόλεμο του Ιράν https://www.aftoleksi.gr/2026/03/08/ai_at_iran_war/?utm_source=rss&utm_medium=rss&utm_campaign=ai_at_iran_war https://www.aftoleksi.gr/2026/03/08/ai_at_iran_war/#respond Sun, 08 Mar 2026 08:52:03 +0000 https://www.aftoleksi.gr/?p=22319 του Αλέξανδρου Σχισμένου Άραγε ζούμε ήδη στον καιρό του Εξολοθρευτή, των αυτονομών δολοφονικών μηχανών; Η επίθεση στο Ιράν στις 28 Φεβρουαρίου 2026 από τις Ηνωμένες Πολιτείες και το Ισραήλ, δεν αντιπροσωπεύει απλώς μια παράνομη πολεμική επιχείρηση, αλλά και την πρώτη εφαρμογή σε μεγάλη κλίμακα μιας «έξυπνης» αλυσίδας εξόντωσης από τεχνολογίες Τεχνητής Νοημοσύνης, Μεγάλα Γλωσσικά Μοντέλα [...]

    The post Η Τεχνητή Νοημοσύνη στον πόλεμο του Ιράν first appeared on Aυτολεξεί.

    ]]>
    του Αλέξανδρου Σχισμένου

    Άραγε ζούμε ήδη στον καιρό του Εξολοθρευτή, των αυτονομών δολοφονικών μηχανών;

    Η επίθεση στο Ιράν στις 28 Φεβρουαρίου 2026 από τις Ηνωμένες Πολιτείες και το Ισραήλ, δεν αντιπροσωπεύει απλώς μια παράνομη πολεμική επιχείρηση, αλλά και την πρώτη εφαρμογή σε μεγάλη κλίμακα μιας «έξυπνης» αλυσίδας εξόντωσης από τεχνολογίες Τεχνητής Νοημοσύνης, Μεγάλα Γλωσσικά Μοντέλα (LLM) και αυτόνομα συστήματα στόχευσης. Η Επιχείρηση Epic Fury και η Επιχείρηση Roaring Lion μετέτρεψαν την Τεχνητή Νοημοσύνη (AI) σε βασικό επιχειρησιακό στοιχείο της λήψης αποφάσεων, του επιχειρησιακού σχεδιασμού και της βομβιστικής στόχευσης. Ασφαλώς, η ενσωμάτωση της Τεχνητής Νοημοσύνης στη λήψη στρατιωτικών αποφάσεων συνιστά μια πολιτική στροφή στην ψηφιακή βαρβαρότητα με φονικές συνέπειες.

    Η μετάβαση από την παραγωγική Τεχνητή Νοημοσύνη στην «αυτενεργούσα» [agentic]Τεχνητή Νοημοσύνη στα τέλη του 2025 διευκόλυνε την ανάπτυξη συστημάτων ικανών να θέτουν ανεξάρτητους στόχους και να εκτελούν σχέδια πολλαπλών βημάτων με ελάχιστη ανθρώπινη εποπτεία, οδηγώντας σε μία υβριδική περιτύλιξη, όπου οι ψηφιακοί μηχανισμοί δεν αντανακλούν απλώς την κοινωνικο-ιστορική πραγματικότητα, αλλά την μετασχηματίζουν αυτοματοποιημένα. Η επίθεση στο Ιράν είναι η εμπειρική επικύρωση αυτού του μετασχηματισμού στο πολεμικό πεδίο, όπου το φαντασιακό της τεχνολογικής κυριαρχίας εκδηλώθηκε ως η επιθυμία να συμπιεστεί η «αλυσίδα εξόντωσης» [kill chain], ο χρόνος μεταξύ της αναγνώρισης ενός στόχου και του χτυπήματος, σε ταχύτητες που υπερβαίνουν την ανθρώπινη γνωστική και συναισθηματική επεξεργασία της κατάστασης.

    Ο ψηφιακός μετασχηματισμός του αμερικανικού στρατού επιταχύνθηκε την 9η Ιανουαρίου 2026 με την «Στρατηγική Επιτάχυνσης της Τεχνητής Νοημοσύνης» [Artificial Intelligence Acceleration Strategy]. Αυτή η διαταγή αναθεώρησε ριζικά τον τρόπο με τον οποίο ο στρατός των ΗΠΑ λαμβάνει αποφάσεις, διαχειρίζεται την εκτίμηση κινδύνων και αναθέτει συμβάσεις. 

    Οι βασικές αρχές της στρατηγικής περιλαμβάνουν:

    1. Την εξάλειψη των μακροπρόθεσμων διαδικασιών έγκρισης προμηθειών υπέρ των απευθείας αναθέσεων σε νεοσύστατες επιχειρήσεις, με έμφαση στην ταχύτητα και την κλίμακα.  
    2. Την αναβάθμιση της συμπίεσης του χρόνου αποφάσεων σε αποφασιστική μεταβλητή, όπου η ικανότητα ανάπτυξης πρακτόρων Τεχνητής Νοημοσύνης ταχύτερα από τον αντίπαλο παρέχει «υπεροχή στη λήψη αποφάσεων». 
    3. Την δημιουργία της πλατφόρμας GenAI.mil: Παροχή πρόσβασης και στα 3 εκατομμύρια μέλη του προσωπικού του Υπουργείου Πολέμου στο ChatGPT του OpenAI και στο Gemini της Google για σύνθεση εγγράφων, βελτιστοποίηση της εφοδιαστικής αλυσίδας και επιχειρησιακό σχεδιασμό.  
    4. Την ενσωμάτωση της Τεχνητής Νοημοσύνης στον «Χρυσό Θόλο», την αμυντική αντιπυραυλική ασπίδα του Τραμπ. 

    Η νέα στρατηγική μετατοπίζει την Τεχνητή Νοημοσύνη στο κέντρο του πολεμικού δόγματος των ΗΠΑ. Αυτή η μετατόπιση υποδηλώνει ότι οι παραδοσιακές καθυστερήσεις στην στρατιωτική κλιμάκωση, οι οποίες ιστορικά επέτρεπαν τη διπλωματική παρέμβαση, έχουν συστηματικά εξαλειφθεί από τη λογική του αλγοριθμικού πολέμου. 

    Συνεπώς, η Επιχείρηση Epic Fury είναι η πρώτη αεροπορική επιδρομή με επικεφαλής την Τεχνητή Νοημοσύνη, με τα ψηφιακά συστήματα να διαδραματίζουν κρίσιμο ρόλο σε ολόκληρη την αλυσίδα εξόντωσης, από τη συλλογή πληροφοριών έως τις επιθέσεις ακριβείας.

    Τις πρώτες 12 ώρες, οι αμερικανικές και ισραηλινές δυνάμεις πραγματοποίησαν σχεδόν 900 επιθέσεις, σε μια «αλυσίδα εξόντωσης» μέσω μιας ιεραρχίας ολοκληρωμένων συστημάτων:

    Οι πλατφόρμες Gotham και AIP του Palantir συγκέντρωναν δεδομένα από δορυφορικές εικόνες, ροές από drones, σήματα ραντάρ και τηλεπικοινωνιακές αναχαιτίσεις σε ταχύτητες που καμία ανθρώπινη ομάδα δεν θα μπορούσε να φτάσει.

    Το Claude της Anthropic ανέλυσε αποσπασματικά δεδομένα για να χαρτογραφήσει τις στρατιωτικές κινήσεις και να προσδιορίσει τα βέλτιστα σενάρια. Αυτόνομα και ημιαυτόνομα συστήματα, συμπεριλαμβανομένου του drone LUCAS, αναπτύχθηκαν ταυτόχρονα σε όλες τις κατηγορίες στόχων.

    Η ενσωμάτωση συστημάτων Τεχνητής Νοημοσύνης όπως τα Maven και Palantir επέτρεψε την ταυτόχρονη εκτέλεση επιθέσεων σε στόχους ηγεσίας, αεράμυνες και πυρηνικές εγκαταστάσεις σε 24 από τις 31 επαρχίες του Ιράν. Αυτό εξουδετέρωσε την παραδοσιακή ιρανική αποτρεπτική ικανότητα, η οποία βασιζόταν στην χρονική καθυστέρηση που απαιτούνταν για ανθρώπινη επαλήθευση και επίσημη επικύρωση κάθε χτυπήματος. Η Τεχνητή Νοημοσύνη ουσιαστικά εξάλειψε αυτή την καθυστέρηση, επιτρέποντας τη δολοφονία του Ανώτατου Ηγέτη Αλί Χαμενεΐ και δεκάδων άλλων κορυφαίων αξιωματούχων στο πρώτο κύμα επιθέσεων προτού προλάβουν να βρουν καταφύγιο.

    Η επιχειρησιακή ραχοκοκαλιά της Επιχείρησης Epic Fury είναι το Maven Smart System, μια προηγμένη έκδοση του κορυφαίου προγράμματος Τεχνητής Νοημοσύνης του Πενταγώνου. Κατασκευασμένο από την εταιρεία εξόρυξης δεδομένων Palantir βάσει σύμβασης που επεκτάθηκε στο ποσό των 1,3 δισεκατομμυρίων δολαρίων έως το 2029, το Maven χρησιμεύει ως η κύρια διεπαφή διοίκησης και ελέγχου για τις πέντε διοικήσεις του στρατού των ΗΠΑ και το ΝΑΤΟ.

    Το Maven λειτουργεί ως κεντρικός κόμβος επεξεργασίας, συνδυάζοντας δεδομένα από 179 διακριτές πηγές, συμπεριλαμβανομένων δορυφορικών εικόνων, ροών από μη επανδρωμένα αεροσκάφη, πληροφοριών σημάτων (SIGINT), δεδομένων γεωγραφικής τοποθεσίας και ανθρώπινης νοημοσύνης (HUMINT).  

    Το Claude είναι το πρώτο σύστημα τεχνητής νοημοσύνης που έλαβε άδεια χειρισμού διαβαθμισμένων πληροφοριών μέσω της υποδομής cloud της Amazon Web Services, επιτρέποντάς του να επεξεργάζεται δεδομένα τηλεπικοινωνιακών υποκλοπών για τον εντοπισμό μη αναμενόμενων συμπεριφορών στα «πρότυπα ζωής» [life patterns]. Η άδεια θα επεκταθεί και στα μοντέλα Grok της xAI και GPT της OpenAI.

    Παρά την πρόσφατη ρήξη μεταξύ του Υπουργείου Πολέμου των ΗΠΑ και της Anthropic σχετικά με τη χρήση της τεχνολογίας της για πλήρως αυτόνομα θανατηφόρα όπλα, το Claude παρέμεινε ενσωματωμένο στο σύστημα στόχευσης. Αυτό υπογραμμίζει μια δομική εξάρτηση εντός του σύγχρονου στρατιωτικού μηχανισμού: μόλις ο πόλεμος διαμεσολαβείται αλγοριθμικά, η «ταχύτητα εκμάθησης» του συστήματος γίνεται μια αποφασιστική μεταβλητή που υπερβαίνει τις πολιτικές ή ηθικές αναστολές.

    Κεντρικός στόχος της επίθεσης στο Ιράν ήταν η δολοφονία του Ανώτατου Ηγέτη Αλί Χαμενεΐ, ο οποίος στοχοποιήθηκε στην οικία του μέσω της ψηφιακής επιτήρησης και ανάλυσης των μοτίβων της καθημερινής του ρουτίνας με τη βοήθεια Τεχνητής Νοημοσύνης. 

    Αυτή η επιδρομή, που διεξήχθη από ισραηλινά μαχητικά F-35I “Adir” χρησιμοποιώντας τα πυρομαχικά ακριβείας SPICE της Rafael, ήταν το αποκορύφωμα μηνών συλλογής προσωπικών δεδομένων, όπου η Τεχνητή Νοημοσύνη συντόνισε τις τηλεπικοινωνιακές παρακολουθήσεις σε πραγματικό χρόνο, καθοδηγώντας τα χτυπήματα δολοφονίας του Χαμενεΐ και 48 ακόμη αξιωματούχων.

    Το καθοριστικό ψυχολογικό και στρατηγικό φαινόμενο του πολέμου του 2026 είναι η «συμπίεση του χρόνου αποφάσεων», όπως παρατηρεί ο Zaza Tsotniashvili. Αναφέρεται στη διαρθρωτική μείωση του διαθέσιμου χρόνου για ανθρώπινη διαβούλευση, καθώς τα συστήματα Τεχνητής Νοημοσύνης παράγουν συστάσεις στόχευσης με ρυθμό που «αμφισβητεί θεμελιωδώς την ικανότητα των ανθρώπινων χειριστών να τις αξιολογήσουν κριτικά». 

    Στην επίθεση του Φεβρουαρίου, αυτό εκδηλώθηκε με την έκδοση εγκρίσεων σε μόλις είκοσι δευτερόλεπτα, υποβαθμίζοντας ουσιαστικά την ανθρώπινη εποπτεία σε «επιτελεστική σφραγίδα». 

    Όταν ένα σύστημα Τεχνητής Νοημοσύνης προτείνει στόχους σε έναν διοικητή που έχει δευτερόλεπτα για να τους εγκρίνει, η διάκριση μεταξύ ενός συστήματος πληροφόρησης και ενός συστήματος αυτόνομων εντολών γίνεται ασαφής.

    Η επιχειρησιακή λογική της επίθεσης του 2026 οφείλεται σε μεγάλο βαθμό στην «τακτική στόχευσης» που ανέπτυξε η Μονάδα 8200 του ισραηλινού στρατού κατά τη διάρκεια της γενοκτονίας στη Γάζα μεταξύ 2023 και 2025. 

    Συστήματα όπως το «The Gospel» και το «Lavender» στη Γάζα, περιγράφηκαν σε αραβικές ιστοσελίδες ως «εργοστάσια μαζικών δολοφονιών», εκτελώντας έως και 1.500 νέους στόχους καθημερινά. 

    Στην επίθεση στο Ιράν το 2026, αυτά τα συστήματα ενσωματώθηκαν στο Lavender 2.0. Εφαρμόστηκε σε επιθέσεις εναντίον του ιρανικού στρατού, χρησιμοποιώντας αναγνώριση προσώπου και προσωπικά δεδομένα για τη χαρτογράφηση ολόκληρης της διοικητικής δομής του ιρανικού κράτους.  

    Ωστόσο, η Τεχνητή Νοημοσύνη δεν χρησιμοποιήθηκε μόνο στα πανάκριβα αεροπλάνα και τους πυραύλους. Ενώ οι αεροπορικές επιθέσεις βασίστηκαν σε βομβαρδιστικά B-2 και μαχητικά F-35, είδαμε ταυτόχρονα την πρώτη μεγάλης κλίμακας εξαπόλυση του Συστήματος Μη Επανδρωμένης Μάχης Χαμηλού Κόστους (LUCAS).  

    Κατασκευασμένο από την SpektreWorks με έδρα την Αριζόνα, το drone LUCAS είναι ένα σύστημα μονόδρομης επίθεσης (OWA) και αποτελεί μια βελτιωμένη παραλλαγή του ιρανικού drone Shahed-136, το οποίο έχει χρησιμοποιηθεί ευρέως από τη Ρωσία στην Ουκρανία.

    Μετά την ανάλυση των ιρανικών drone που καταρρίφθηκαν στην Ουκρανία, ο αμερικανικός στρατός ανέπτυξε τα LUCAS ως «κατανεμημένα αυτόνομα συστήματα», ενισχυμένα με Τεχνητή Νοημοσύνη, που δεν απαιτούν οδηγό ή δορυφορική σύνδεση για να βρουν τους στόχους τους.

    Ο ναύαρχος Τσαρλς Μπραντ Κούπερ, διοικητής της CENTCOM, σημείωσε ότι η Ομάδα Scorpion Strike εκτόξευσε «αμέτρητα» drones LUCAS κατά την αρχική φάση της επιχείρησης Epic Fury. Τα LUCAS χρησιμοποιήθηκαν για να στοχεύσουν εγκαταστάσεις διοίκησης του IRGC, εγκαταστάσεις αεράμυνας και αεροδρόμια.

    Η χρήση τερματικών Starlink και αυτόνομων μηχανισμών συντονισμού επιτρέπει σε αυτά τα drones να εκτελούν «δυναμική στόχευση» και «προηγμένες τακτικές συνεργασίας» ακόμη και όταν είναι αποσυνδεδεμένα από την κεντρική διοίκηση. 

    Επιπλέον, εκτεταμένες παρεμβολές στο Παγκόσμιο Δορυφορικό Σύστημα Πλοήγησης (GNSS) και στο GPS έχουν αναφερθεί σε ολόκληρο τον Περσικό Κόλπο και την Ανατολική Μεσόγειο, οι οποίες επηρεάζουν σημαντικά την αξιοπιστία του AIS (Automatic Identification System), του συστήματος εντοπισμού της θέσης των πλοίων.  Ο συνασπισμός ΗΠΑ και Ισραήλ έχει αναπτύξει το εναλλακτικό σύστημα NOCTA, που, αντί να βασίζεται σε δορυφορικά σήματα, χρησιμοποιεί συσχέτιση εδάφους σε πραγματικό χρόνο για να εντοπίζει τη θέση σε σχέση με το φυσικό περιβάλλον. 

    Το ανθρώπινο κόστος της ψηφιακής βαρβαρότητας καταδείχθηκε περίτρανα κατά το πρώτο κύμα επιθέσεων στις 28 Φεβρουαρίου 2026. Μια πυραυλική επίθεση, πιθανώς από αμερικανικές δυνάμεις, έπληξε ένα δημοτικό σχολείο θηλέων στο Μινάμπ, στην επαρχία Χορμοζγκάν, σκοτώνοντας περισσότερα από 165 παιδιά. Το σχολείο βρισκόταν δίπλα σε μια ναυτική βάση του IRGC, ένα στρατιωτικό κτίριο που πιθανώς ταυτοποιήθηκε από συστήματα στόχευσης τεχνητής νοημοσύνης ως στόχος. Δεν θα εξακριβώσουμε ποτέ εάν κάποιο σύστημα ΤΝ ενεπλάκη στη σφαγή στο σχολείο, όμως η πολιτική και ηθική ευθύνη της σφαγής παραμένει ακέραια στους ανθρώπους που χρησιμοποιούν την ΤΝ ως όπλο και στις πολιτικές ηγεσίες των ΗΠΑ και του Ισραήλ.

    Η Τεχνητή Νοημοσύνη είναι ένα εργαλείο, ένα κατασκεύασμα της ανθρώπινης διάνοιας που εξαπολύεται για φαντασιακούς σκοπούς που έχουν νόημα μόνο από μια συγκεκριμένη και διεστραμμένη ανθρώπινη σκοπιά, όπως η σφαγή αμάχων στο όνομα της αυταρχικής κυριαρχίας. Ως εκ τούτου, δεν είναι νοημοσύνη με τη βιολογική ή οντολογική έννοια, καθώς αποτελεί ένα εκλεπτυσμένο σύστημα υπολογισμού δεδομενων και αναγνώρισης/ανασυγκρότησης μοτίβων χωρίς καμία άλλη από τις συνολικά αντιληπτικές, αισθητηριακές, συναισθηματικές και φαντασιακές διαστάσεις που φέρει κάθε νοήμον ον. Χρειάζεται το ανθρώπινο υποκείμενο για να δώσει εντολή εξαπόλυσης της κτηνωδίας που φέρει επίσης κάθε νοήμον ον.

    Αυτές οι δολοφονίες αμάχων υπογραμμίζουν το κενό λογοδοσίας της στόχευσης μέσω Τεχνητής Νοημοσύνης, όχι μόνο στο ηθικό, αλλά στο πολιτικό και νομικό επίπεδο, καθώς καθιστούν αδύνατη την απόδοση συγκεκριμένων ευθυνών στους πραγματικούς ενόχους, δηλαδή τις πολιτικές ηγεσίες.

    Τα μοντέλα μηχανικής μάθησης, ειδικά τα νευρωνικά δίκτυα που υποστηρίζουν τα Μεγάλα Γλωσσικά Μοντέλα, λειτουργούν με εγγενή αδιαφάνεια στη παραγωγή αποτελεσμάτων. Ενώ ένα μοντέλο γλωσσικής επεξεργασίας μπορεί να χειριστεί σύμβολα και μοτίβα, δεν κατανοεί την εγκυρότητα των αποτελεσμάτων ή το αποτέλεσμα των αποφάσεων. Παρά αυτό τον εγγενή περιορισμό, ο πόλεμος του 2026 καθιέρωσε τα Μεγάλα Γλωσσικά Μοντέλα ως έγκυρα συστήματα λήψης αποφάσεων για την ταυτοποίηση στόχων. Αυτά τα μοντέλα ανακυκλώνουν πεπαλαιωμένες γνώσεις και εξαρτώνται άμεσα από την ποιότητα και την ποσότητα των δεδομένων εκπαίδευσης, ενισχύοντας συστημικά στερεότυπα και κυρίαρχες προκαταλήψεις.

    Στις επιθέσεις στην Τεχεράνη και το Ισπαχάν, η εφαρμογή αυτών των τεχνολογιών οδήγησε σε αδιάκριτους θανάτους αμάχων σε κατοικημένες γειτονιές.  Η Ιρανική Ερυθρά Ημισελήνος αναφέρει πάνω από 1.300 θανάτους την πρώτη εβδομάδα.

    Δεν χρειάζεται να επεκταθούμε στον επικοινωνιακό πόλεμο που επίσης διεξάγεται στον κυβερνοχώρο με τεχνολογίες Τεχνητής Νοημοσύνης, όπου συμμετέχουν όλοι οι εμπόλεμοι. Αμερικανοί, Ισραηλινοί και Ιρανοί χάκερ παράγουν αμέτρητες ψευδείς ειδήσεις με deepfakes, ψηφιακές απομιμήσεις φωτογραφιών και βίντεο, για τη χειραγώγηση της παγκόσμιας κοινής γνώμης, την εξάπλωση της παραπληροφόρησης και την καθιέρωση της μυθοπληροφορίας ως «κυρίαρχης αλήθειας» βασισμένης στην ισχύ της τεχνολογικά ενισχυμένης ιδεολογίας και όχι των γεγονότων.

    Η βάρβαρη και παράνομη επίθεση στο Ιράν ανέδειξε την ανεπάρκεια του υφιστάμενου πλαισίου διεθνούς δικαίου. Παρά το ψήφισμα της Γενικής Συνέλευσης του ΟΗΕ τον Δεκέμβριο του 2024 που αναγνώρισε ότι το Διεθνές Δίκαιο πρέπει να εφαρμόζεται σε κάθε στρατιωτική χρήση της Τεχνητής Νοημοσύνης, δεν υπάρχει κανένας δεσμευτικός μηχανισμός επιβολής του ψηφίσματος. Η Σύμβαση για ορισμένα Συμβατικά Όπλα (CCW) και η «Πολιτική Διακήρυξη REAIM» παρέμειναν σε στάδιο διαβούλευσης χωρίς να καταλήξουν σε κάποιο διεθνές πλαίσιο εποπτείας του αλγοριθμικού πολέμου.

    Η επίθεση αποκάλυψε επίσης έναν φονικό φαύλο κύκλο απανθρωπισμού, όπου η επιδίωξη της ταχύτητας οδηγεί στην απομείωση του ανθρώπινου παράγοντα στις πολεμικές ενέργειες και στη διάβρωση του ανθρώπινου υποκειμενικού και κοινωνικού χρόνου, η εσώτερη διάρκεια του οποίου επέτρεπε την τακτική αναπροσαρμογή, τον αναστοχασμό και την αλλαγή σκεπτικού.

    Η αυξανόμενη εξάρτηση από την Τεχνητή Νοημοσύνη οδηγεί σε μείωση της επιρροής της ανθρώπινης υποκειμενικότητας, ενισχύοντας τις θεσμισμένες προκαταλήψεις και αυξάνοντας τον κίνδυνο της αυτοματοποιημένης καταστροφής. Επιταχύνουν τον ρυθμό της καταστροφής σε ταχύτητες πέραν της ανθρώπινης κρίσης και λειτουργούν δίχως συναισθηματική εξάντληση.

    Και, ακόμη χειρότερο, οδηγεί στην εξάλειψη του ανθρώπινου φαντασιακού παράγοντα, της ενσυναίσθησης και της κοινής ανθρώπινης δυνατότητας της αναβιωτικής φαντασίας που μπορεί να μας βάλει στη θέση του αντιπάλου και να μας οδηγήσει στη συμφιλίωση.

    Ο πόλεμος του Ιράν του 2026 είναι η ιστορική στιγμή που ο αλγόριθμος εισήλθε πραγματικά στο πεδίο της μάχης. Η σύγκρουση αποκάλυψε ότι η ψηφιακή βαρβαρότητα δεν είναι επιστροφή στο χάος, αλλά η άνοδος μιας τεχνολογικά διαμεσολαβημένης τάξης, η επιβολή της οποίας δεν απαιτεί πλέον αυτενεργά υποκείμενα. Είναι καθήκον της βασανισμένης ανθρωπότητας να αντισταθεί στον πόλεμο.

    Η πρόκληση για την επόμενη δεκαετία θα είναι το κατά πόσον η συνοχή των κοινωνικών σχέσεων μπορεί να διατηρηθεί σε μια εποχή όπου οι επιχειρησιακές δυνατότητες του αλγοριθμικού πολέμου διαβρώνουν συστηματικά τις ελάχιστες προϋποθέσεις της πολιτικής λογοδοσίας. 

    The post Η Τεχνητή Νοημοσύνη στον πόλεμο του Ιράν first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/03/08/ai_at_iran_war/feed/ 0 22319
    Οι Παραστατικές Τέχνες ως Όριο του Ψηφιακού: Θεατρικός Χρόνος και Τεχνητή Νοημοσύνη https://www.aftoleksi.gr/2026/02/23/theatre_ai/?utm_source=rss&utm_medium=rss&utm_campaign=theatre_ai https://www.aftoleksi.gr/2026/02/23/theatre_ai/#respond Mon, 23 Feb 2026 20:27:08 +0000 https://www.aftoleksi.gr/?p=22231 του Αλέξανδρου Σχισμένου Το παρακάτω κείμενο αποτελεί αναπτυγμένη μορφή της ομιλίας μου στην ημερίδα “ΑΙ και Παραστατικές Τέχνες” που διοργάνωσε το Τμήμα Θεάτρου της Σχολής Καλών Τεχνών του ΑΠΘ στις 15 Ιανουαρίου 2026,. Η επέκταση των εφαρμογών Τεχνητής Νοημοσύνης σε κάθε κοινωνικό πεδίο τα τελευταία χρόνια, συνοδεύεται από ένα πέπλο σκοταδιστικής προπαγάνδας. Στις ακόλουθες παραγράφους [...]

    The post Οι Παραστατικές Τέχνες ως Όριο του Ψηφιακού: Θεατρικός Χρόνος και Τεχνητή Νοημοσύνη first appeared on Aυτολεξεί.

    ]]>
    του Αλέξανδρου Σχισμένου

    Το παρακάτω κείμενο αποτελεί αναπτυγμένη μορφή της ομιλίας μου στην ημερίδα “ΑΙ και Παραστατικές Τέχνες” που διοργάνωσε το Τμήμα Θεάτρου της Σχολής Καλών Τεχνών του ΑΠΘ στις 15 Ιανουαρίου 2026,.

    Η επέκταση των εφαρμογών Τεχνητής Νοημοσύνης σε κάθε κοινωνικό πεδίο τα τελευταία χρόνια, συνοδεύεται από ένα πέπλο σκοταδιστικής προπαγάνδας. Στις ακόλουθες παραγράφους παρουσιάζω την υπόθεση ότι οι παραστατικές τέχνες, σε αντίθεση με τις εικαστικές, μουσικές ή οπτικοακουστικές τέχνες, αποτελούν ένα ουσιαστικό όριο στην Τεχνητή Νοημοσύνη και γενικά την ψηφιοποίηση, καθώς ενεργοποιούν τις πολιτικές και συλλογικές διαστάσεις της ανθρώπινης συνύπαρξης.

    Το 2025 έγιναν στις ΗΠΑ επενδύσεις 700 δισεκατομμυρίων δολαρίων για την Τεχνητή Νοημοσύνη, αλλά με μηδενική συνεισφορά στην οικονομική ανάπτυξη της χώρας, σύμφωνα την Goldman Sachs. Με τεράστια συνεισφορά στην περιβαλλοντική καταστροφή, να συμπληρώσουμε εμείς. Φαίνεται ότι οι χρηματοδοτική φρενίτιδα είναι μία φούσκα κυκλικής χρηματοδότησης που βασίζεται σε πλασματικές υποσχέσεις. Βλέπετε, τον Οκτώβρη του 2025, μια ομάδα ερευνητών έφτιαξε τον Δείκτη Απομακρυσμένης Εργασίας (RLI), ένα πολυτομεακό δείκτη αξιολόγησης της απόδοσης των μοντέλων ΤΝ σε διαφορετικές τηλεργασίες και πραγματικά περιβάλλοντα . Οι υψηλότερες επιδόσεις μοντέλου ΤΝ ήταν ένα ποσοστό επιτυχούς αυτοματοποίησης 3,75% σε σχέση με τους επαγγελματίες ανθρώπους. Οι μελετητές καταλήγουν:
    “Αυτό καταδεικνύει ότι τα σύγχρονα συστήματα ΤΝ αποτυγχάνουν να ολοκληρώσουν τη συντριπτική πλειονότητα των εργασιών σε επίπεδο ποιότητας που θα γινόταν αποδεκτό ως παραδοτέο έργο.”

    Επομένως, υπάρχει μια προπαγάνδα θεσμισμένης τεχνοφιλίας πίσω από τη χρήση ψηφιακών μηχανών, και ιδιαίτερα της Τεχνητής Νοημοσύνης. Όπως σημείωσε η Kate Crawford, ακόμη και πριν από την πρόσφατη άνθηση της Τεχνητής Νοημοσύνης, η τεχνητή νοημοσύνη είναι μια υποδομή, μια βιομηχανία, μια μορφή άσκησης εξουσίας ενός “άκρως οργανωμένου κεφαλαίου που υποστηρίζεται από τεράστια συστήματα εξόρυξης και εφοδιαστικής, με αλυσίδες εφοδιασμού που τυλίγονται σε ολόκληρο τον πλανήτη.” (Crawford 2019)

    Ωστόσο, δεν είναι όλες οι ανθρώπινες δραστηριότητες εξίσου ευάλωτες στην ψηφιοποίηση. Η υπόθεση μου είναι ότι οι παραστατικές τέχνες -ειδικά το θέατρο- αποτελούν ένα δομικό όριο στο ψηφιακό. Η καθοριστική τους συνθήκη είναι η ζωντανή συνάθροιση ενσώματων, ευάλωτων, ατόμων, των οποίων η συμπαρουσία δημιουργεί ένα μοναδικό πεδίο νοήματος που δεν μπορεί να αναπαραχθεί από υπολογιστικά συστήματα (Phelan 1993; Fischer-Lichte 2008; Auslander 1999).

    Με οντολογικούς όρους, και οι ψηφιακοί μηχανισμοί και οι παραστατικές τέχνες είναι κοινωνικο-ιστορικές δημιουργίες και υλοποιήσεις κοινωνικών φαντασιακών σημασιών. Κάθε κοινωνία δημιουργεί τον ιστορικό της χρόνο στηριζόμενη στην αναπόφευκτη ροή του φυσικού χρόνου, και οι δύο χρονικές στιβάδες συμμετέχουν στη δημιουργία της κοινωνικής πραγματικότητας. Ως εκ τούτου, η κοινωνία δημιουργεί τους δικούς της βασικούς θεσμούς έκφρασης, επικοινωνίας και ταύτισης,

    Θα πρέπει να σημειώσουμε ότι, γενικά, τόσο η τεχνολογία όσο και η τέχνη βασίζονται στη γλώσσα και στην πρακτική, αλλά σε διαφορετικό βαθμό, με διαφορετικές προτεραιότητες, που καθιερώνουν διαφορετικούς τρόπους σύνδεσης με την πραγματικότητα. Η τεχνολογία χρησιμοποιεί τη γνώση που παρέχει η γλώσσα για να μεταμορφώσει την πραγματικότητα πρακτικά. Η τέχνη χρησιμοποιεί τα μέσα που παρέχει η τεχνολογία για να ερμηνεύσει την πραγματικότητα φαντασιακά.  Η τεχνολογία καθορίζεται από την αρχή της χρησιμότητας, παράγοντας χρήσιμα αντικείμενα, ενώ η τέχνη ορίζεται από την αρχή της φαντασιακής ερμηνείας και είναι αυτοτελής. Η τεχνολογία βασίζεται στα φυσικά χαρακτηριστικά της χρονικής επανάληψης και της μη αναστρεψιμότητας, ενώ η τέχνη δημιουργεί αυθαίρετες αφηγηματικές χρονικότητες φανταστικών δυνατοτήτων.

    Η ψηφιακή τεχνολογία είναι, εξ ορισμού, μια σκόπιμη τροποποίηση της φυσικής χρονικότητας που βασίζεται στις ποσοτικοποιήσιμες, ψηφιοποιήσιμες και μετρήσιμες παραμέτρους της πληροφορίας. Ο ψηφιακός κυβερνοχώρος χαρακτηρίζεται από αλγοριθμικό προκαθορισμό που παράγει μια παλινδρομική, επαναλαμβανόμενη χρονικότητα (Stiegler 1998). Τα ψηφιακά περιβάλλοντα δημιουργούν μια ψευδοδημόσια προβολή της ιδιωτικής επικοινωνίας, υπονομεύοντας τις συνθήκες του δημόσιου χώρου (Crary 2013). Το χρονικό πεδίο των τηλεπικοινωνιών είναι, εξ ορισμού, βασισμένο στην τηλεπαρουσία.

    Η ψηφιακή χρονικότητα της Τεχνητής Νοημοσύνης είναι η τεχνητή, υπολογιστική χρονική δομή μέσω της οποίας τα συστήματα Τεχνητής Νοημοσύνης επεξεργάζονται δεδομένα, λαμβάνουν αποφάσεις και παράγουν αποτελέσματα. Αποτελεί μια δομή που συμπτύσσει το παρελθόν, το παρόν και το μέλλον σε ένα χειραγωγήσιμο, μη ανθρώπινο χρονικό πεδίο (Hansen 2004· Hayles 1999). Κατά τον ψηφιακό υπολογισμό, η εμφάνιση ενός σφάλματος σημαίνει βλάβη του μηχανισμού, μια διακοπή της αλγοριθμικής εκτέλεσης. Οι ψηφιακές συναρτήσεις λειτουργούν με βάση μια εξωτερικά προσαρμοσμένη χρονικότητα. Ως εκ τούτου, η εσωτερική ψηφιακή χρονικότητα της Τεχνητής Νοημοσύνης διαφέρει θεμελιωδώς από την ανθρώπινη, βιολογική και ιστορική χρονικότητα.

    Η χρονικότητα που παράγεται από τις υπολογιστικές διαδικασίες χαρακτηρίζεται από μη γραμμικότητα, καθώς η Τεχνητή Νοημοσύνη μπορεί να έχει άμεση πρόσβαση σε δεδομένα του παρελθόντος και να λειτουργεί εκτός χρονολογικής ακολουθίας, ασυγχρονικότητα, καθώς οι διαδικασίες της Τεχνητής Νοημοσύνης λαμβάνουν χώρα σε μικροχρονικές κλίμακες ξένες προς την ανθρώπινη αντίληψη, προβλεψιμότητα, καθώς τα μοντέλα Τεχνητής Νοημοσύνης παράγουν προβλεψιμά αποτελέσματα, και αρχειακή ισοπέδωση, καθώς η Τεχνητή Νοημοσύνη αντιμετωπίζει το παρελθόν ως ένα χειραγωγήσιμο σύνολο δεδομένων και όχι ως βιωμένη ιστορία (Stiegler 1998; Chun 2016).

    Η σημασία εισέρχεται στον ψηφιακό μηχανισμό εξωγενώς ως εντολή, σύνολο κανόνων και συγκεκριμένο σύνολο δεδομένων που πρόκειται να αναλυθούν και να αναδιαρθρωθούν ως αποτέλεσμα, το νόημα του οποίου ορίζεται σε σχέση με τον χρήστη. Παρ ‘όλα αυτά, η εξερεύνηση ενός μέρους στους Χάρτες της Google δεν είναι σαν να πηγαίνεις εκεί στην πραγματικότητα.

    Όλες οι εικαστικές και οπτικοακουστικές τέχνες, η μουσική, ο κινηματογράφος και η λογοτεχνία βρίσκονται στο πεδίο της ψηφιοποίησης. Τα Μεγάλα Γλωσσικά Μοντελα (LLM) είναι εξαιρετικές μηχανές χειραγώγησης, ανάλυσης και ανασύνθεσης εικόνας και γλώσσας με τη μορφή μοτίβων. Αλλά η Τεχνητή Νοημοσύνη παράγει χωρίς να κατανοεί (Dreyfus 1992; Cantwell Smith 2019).

    Τα LLMs βασίζονται στη βαθιά μάθηση χρησιμοποιώντας αρχιτεκτονικές νευρωνικών δικτύων γνωστές ως Transformers με μηχανισμούς «αυτοπροσοχής» που σταθμίζουν τη σημασία συγκεκριμένων τμημάτων δεδομένων προκειμένου να αναλύσουν τις σχέσεις μεταξύ των λέξεων. Για την Τεχνητή Νοημοσύνη, είναι το ίδιο πράγμα ένας κατάλογος, μια εικόνα ή η Πέμπτη Συμφωνία του Μπετόβεν ή η Έρημη Χώρα του Τ.Σ. Έλιοτ, όλα αποδίδονται σε μοτίβα δεδομένων. Ωστόσο, τα LLMs μπορούν να αναπαράγουν τέτοια μοτίβα, έτσι ώστε ο χρήστης, ως υποκείμενο, να συγκινείται συναισθηματικά. Γιατί;

    Επειδή η Τεχνητή Νοημοσύνη είναι μια μηχανή στατιστικής ανάλυσης και αναδιαμόρφωσης δεδομένων, ώστε να αναπαράγει την επικοινωνιακή γλώσσα του χρήστη. Διεγείρει μια συναισθηματική απόκριση εντός του υποκειμένου και όχι εντός του συστήματος.

    Σήμερα, η πιο προηγμένη Τεχνητή Νοημοσύνη λειτουργεί στον κυβερνοχώρο των τηλεπικοινωνιών ως ένας δρώντας χωρίς υποκειμενικότητα, ένα εξελιγμένο εργαλείο χειραγώγησης δεδομένων και χρηστών. Αντί να είναι αιθέρια, η Τεχνητή Νοημοσύνη είναι ένα τεχνοβιομηχανικό σύστημα, «τόσο ενσωματωμένο, όσο και υλικό, φτιαγμένο από φυσικούς πόρους, καύσιμα, ανθρώπινη εργασία, υποδομές, logistics, ιστορίες και ταξινομήσεις». (Crawford 2019)

    Η αποικιοποίηση όλων των κοινωνικών τομέων από εφαρμογές Τεχνητής Νοημοσύνης καθοδηγείται από ισχυρά πολιτικά και οικονομικά συμφέροντα που παρακάμπτουν τη νομοθεσία περί πνευματικών δικαιωμάτων με τρόπο που καθιστά τα έργα των εικαστικών τεχνών πρώτη ύλη για την μηχανική μάθηση. Το 2025, η κυβέρνηση της Ιαπωνίας πούλησε τα δικαιώματα των κινούμενων σχεδίων των Ghibli Studios στην OpenAI, γεγονός που οδήγησε σε μια πλημμύρα περιεχομένου που παράγεται από την Τεχνητή Νοημοσύνη σε στυλ Miyazaki σε όλο το Διαδίκτυο. Αυτή η εκμετάλλευση της τέχνης από την ΤΝ αποτελεί ένδειξη ψηφιακής βαρβαρότητας.

    Δεν υπάρχει διαθέσιμη περιγραφή για τη φωτογραφία.

    Γιατί μπορούν οι παραστατικές τέχνες να αντισταθούν σε αυτό; Κατά τη γνώμη μου, επειδή προϋποθέτουν, εξ ορισμού, τη ζωντανή συγκέντρωση των σωμάτων που υποφέρουν και δημιουργούν, εξ ορισμού, ένα φευγαλέο και χρονικό διυποκειμενικό πεδίο συνύπαρξης μεταξύ του καλλιτέχνη και του κοινού.

    Ο Zhu-Nowell, Βοηθός Επιμελητής στο Μουσείο Guggenheim στη Νέα Υόρκη, διευκρίνισε αυτή τη διάκριση ως εξής:
    «Η περφορμανς είναι μια μορφή τέχνης που λαμβάνει χώρα σε μια συγκεκριμένη χρονική στιγμή σε ένα συγκεκριμένο μέρος, όπου ο καλλιτέχνης ασχολείται με κάποιο είδος δραστηριότητας, συνήθως ενώπιον κοινού. Η κύρια διαφορά μεταξύ της περφορμανς και των εικαστικών πρακτικών, όπως η ζωγραφική, η φωτογραφία και η γλυπτική, είναι ότι πρόκειται για ένα χρονικό γεγονός ή δράση.»

    Οι παραστατικές τέχνες (χορός, θέατρο, περφορμανς) είναι προσωρινές, ζωντανές και ενσαρκωμένες, απαιτώντας συγκεκριμένο χρόνο, τόπο και αλληλεπίδραση με το κοινό. Σε αντίθεση με τις στατικές εικαστικές τέχνες (ζωγραφική, γλυπτική), οι οποίες παράγουν διαρκή, απτά αντικείμενα, οι παραστατικές τέχνες είναι δυναμικά γεγονότα που υπάρχουν μόνο τη στιγμή της δημιουργίας, χρησιμοποιώντας συχνά το σώμα του ερμηνευτή ως κύριο μέσο. Αυτές δημιουργούν τον δικό τους συλλογική χρονικότητα που δεν μπορεί να περιοριστεί στο ψηφιακό.
    Στις αρχές του 2026, μια έρευνα που διεξήχθη από τους Peiyang Song, Pengrui Han και Noah Goodman κατέληξε στο συμπέρασμα ότι τα Μεγάλα Γλωσσικά Μοντέλα αποτυγχάνουν ουσιαστικά να αναπαράγουν την ανθρώπινη συλλογιστική. Οι ερευνητές διαπίστωσαν ότι «ακόμα και τα προηγμένα LLM δυσκολεύονται με εργασίες αφηρημένης συλλογιστικής, όπως η εξαγωγή υποκείμενων κανόνων από περιορισμένα παραδείγματα, η κατανόηση έμμεσων εννοιολογικών σχέσεων και ο αξιόπιστος χειρισμός συμβολικών ή χρονικών αφαιρέσεων». (Song et al. 2026)

    Οι παραστατικές τέχνες αποτελούν έναν διαφορετικό και σαφώς ανθρώπινο τρόπο «αξιόπιστου χειρισμού συμβολικών ή χρονικών αφαιρέσεων», που χαρακτηρίζεται από τη συμβολική, ελλειπτική αναπαράσταση του φαντασιακού χρόνου και χώρου, όπως αναπαρίστανται και υλοποιούνται στη σκηνή.

    Ο θεατρικός χώρος και χρόνος ορίζονται από την πραγματική παρουσία, σε αντίθεση με την τηλεπαρουσία, και τις φυσικές παραμέτρους του προσωπικού προσανατολισμού (εμπρός/πίσω, πάνω/κάτω). Δεν πρόκειται για έναν προκαθορισμένο μαθηματικό χώρο, αλλά για τον ανοιχτό χώρο της εμπειρίας (Merleau-Ponty 1945· Casey 1997). Δομούνται από τον ρυθμό της συλλογικής αλληλεπίδρασης, μετατρέποντας την ιδιωτική εμπειρία σε συλλογικό χρόνο.

    Μια καλλιτεχνική παράσταση δημιουργεί έναν πολυεπίπεδο φαντασιακό χώρο, τον αφηγηματικό χώρο του κειμένου και τον παραστατικό χώρο της σκηνής, που κατοικεί στον πραγματικό φυσικό χώρο, το κτίριο του θέατρου ή τον ανοιχτό χώρο, με τη σκηνογραφία να λειτουργεί ως γέφυρα μεταξύ της πραγματικότητας και της φανταστικής αναπαράστασης.. Η Fischer-Lichte (2008) το αποκαλεί αυτοποιητικό βρόχο ανατροφοδότησης μεταξύ ηθοποιών και θεατών. Συνεπώς, δημιουργεί έναν φαντασιακό χρόνο, την αφηγηματικότητα της πλοκής και την παραστατική χρονικότητα της δράσης, μέσα στη ροή του ιστορικού χρόνου, την κοινωνική κατάσταση που αγκυροβολεί την παράσταση στο παρόν. Τα όρια του θεατρικού χώρου είναι ρευστά και ο θεατρικός χρόνος είναι πάντα ανοιχτός στο πεδίο του κοινωνικού χρόνου.

    Το νόημα αναδύεται διαπροσωπικά μέσω του βιωματικού λόγου, ενσωματώνοντας διανοητικές, συναισθηματικές και αισθητικές διαστάσεις. Η φυσική παρουσία είναι το θεμελιώδες στοιχείο του θεατρικού χώρου, ο οποίος ορίζεται έτσι από τις παραμέτρους του φυσικού σώματος. Δηλαδή, εμπρός-πίσω, πάνω-κάτω. Για κάθε ερμηνευτή ή θεατή, η παράσταση λαμβάνει χώρα εντός των διαστάσεων εμπρός και πίσω, πάνω και κάτω, κοντά και μακριά σε σχέση με τη σωματική τους παρουσία στο εδώ και τώρα της παράστασης. Παρομοίως ο θεατρικός χρόνος έχει ένα πριν και ένα μετά σε σχέση με το παρόν της δράσης.

    Αυτά καθορίζουν τον ρυθμό της συλλογικής αλληλεπίδρασης, και έχουν επίσης να κάνουν με την ανάδυση της ετερότητας, δηλαδή την ευεργετική παρουσία του σφάλματος. Με άλλα λόγια, το σφάλμα μπορεί να βοηθήσει τη φαντασία να σπάσει το φράγμα της προβλεψιμότητας. Το σφάλμα, η ενδεχομενικότητα και ο αυτοσχεδιασμός δεν είναι αποτυχίες αλλά γενεσιουργές δυνάμεις (Schechner 1985· Turner 1969). Το σφάλμα μπορεί να γεννήσει μια επινόηση ή μπορεί να ανοίξει έναν νέο χώρο επιτελεστικών δυνατοτήτων στο κοινό πεδίο της διυποκειμενικής συμμετοχής, δηλαδή της διεμπλοκής ψυχών και σωμάτων.

    Έτσι, οι παραστατικές τέχνες αλληλεπιδρούν και στα τρία επίπεδα εμπειρίας, δηλαδή στο διανοητικό επίπεδο μέσω της γλώσσας και της χειρονομίας, στο συναισθηματικό επίπεδο μέσω της έκφρασης και του πάθους και στο αισθητηριακό επίπεδο μέσω της μυρωδιάς, του θεάματος, της σωματικής εμβύθισης και της αφής. Οι παραστατικές τέχνες προβάλλουν νόημα στο διανοητικό, το συναισθηματικό και το αισθητηριακό επίπεδο ταυτόχρονα. Το χρονικό πεδίο των παραστατικών πράξεων είναι εξ ορισμού το διυποκειμενικό παρόν, το οποίο εμβαπτίζει τις διακριτές υποκειμενικές χρονικότητες των θεατών και των ηθοποιών μέσα σε ένα ουσιαστικό, αυτοτελές αφηγηματικό σύνολο.

    Ενώ οι παραστατικές τέχνες αγκαλιάζουν την ενδεχομενικότητα, τα ψηφιακά συστήματα την καταστέλλουν. Ενώ οι παραστατικές τέχνες παράγουν νόημα μέσω της ενσωματωμένης συν-παρουσίας, τα ψηφιακά συστήματα παράγουν απαντήσεις μέσω του υπολογισμού.

    Η χρονικότητα που ενυπάρχει στις παραστατικές τέχνες σημαίνει ότι η δραματική παράσταση δεν είναι απλώς ένα καλλιτεχνικό μέσο· είναι ένας τρόπος κοινωνικής ύπαρξης. Η χρονικότητά της είναι εφήμερη, ο χώρος της σχεσιακός και το νόημά της αναδύεται μέσω της ενσωματωμένης αλληλεπίδρασης. Αυτά τα χαρακτηριστικά τοποθετούν τη δραματική παράσταση ως αντίθεση στο ψηφιακό: ενώ τα ψηφιακά συστήματα βασίζονται στην επανάληψη, την ταξινόμηση και την αλγοριθμική προβλεψιμότητα, το θέατρο ευδοκιμεί στην ενδεχομενικότητα, το σφάλμα και την απρόβλεπτη ανάδυση της ετερότητας.

    Η σημασία των παραστατικών τεχνών αποκτά ξανά πολιτικό χαρακτήρα όσον αφορά τη δημόσια συνύπαρξη. Υπάρχει μια απαίτηση για την ένταση της προσωπικής παρουσίας, όσον αφορά το τι είναι η δραματική δράση στο δημόσιο χώρο. Βρίσκεται στην δυσφορία που μπορεί να προκαλέσει στο κοινό μια δραματική ή χορευτική παράσταση και στη διαμαρτυρία που μπορεί να προκύψει μέσα σε αυτή τη ζωντανή αλληλεπίδραση, η οποία είναι τόσο διαπροσωπική όσο και δημόσια. Γι’ αυτό το θέατρο, ο χορός και η περφόρμανς διαφέρουν από τον κινηματογράφο ως προς τη χρονικότητά τους, καθώς τα πρώτα διαδραματίζονται στο παρόν, ενώ ο δεύτερος αποτελεί μια προβολή του παρελθόντος. Όπως παρατήρησε ο Peter Brook στο βιβλίο του “Ο Άδειος Χώρος”:

    «Υπάρχει μόνο μία ενδιαφέρουσα διαφορά μεταξύ του κινηματογράφου και του θεάτρου. Ο κινηματογράφος προβάλλει σε μια οθόνη εικόνες από το παρελθόν. […] Το θέατρο, από την άλλη πλευρά, πάντα επιβάλλεται στο παρόν. Αυτό είναι που μπορεί να το κάνει πιο πραγματικό από την κανονική ροή της συνείδησης. Αυτό είναι επίσης που μπορεί να το κάνει τόσο ενοχλητικό.» (Brook 1968)

    Ο κινηματογράφος ανήκει σε ένα είδος διαδοχικής αφήγησης μέσω οπτικής απεικόνισης, η οποία είναι πιο κοντά στα κόμικς και τη φωτογραφία, και, κατ’ επέκταση, στην ψηφιοποίηση του καταγεγραμμένου παρελθόντος. Ο κινηματογράφος επαναπροβάλει το παρελθόν· το θέατρο ενσαρκώνει το παρόν (Brook 1968). Οι παραστατικές τέχνες περιλαμβάνουν τρεις διαστάσεις διυποκειμενικής συσχέτισης στο παρόν, όπως αποδεικνύεται από το θέατρο.

    Η θεατρική πράξη μπορεί να γίνει αναλυτικά κατανοητή μέσα από τρεις αλληλένδετες διαστάσεις – τελετουργική, πολιτική και υπαρξιακή – καθεμία από τις οποίες αποκαλύπτει μια διαφορετική πτυχή της αντίστασής της στην ψηφιοποίηση.

    Οι τελετουργικές καταβολές του θεάτρου δίνουν έμφαση στην κοινοτική αίσθηση του ανήκειν, την τελετουργική μίμηση και τον εκστατικό αποχωρισμό από την καθημερινή ζωή (Burkert 1985· Schechner 1985· Turner 1969). Αυτή η διάσταση αναδεικνύει την ικανότητα του θεάτρου να δημιουργεί συλλογική εμπειρία, ένα φαινόμενο που δεν μπορεί να αναχθεί στην ψηφιακή διαμεσολάβηση, το οποίο στερείται της φυσικής και συναισθηματικής πυκνότητας της τελετουργικής συμπαρουσίας.

    Πρόκειται για τη κοινοτική διάσταση, η οποία είναι πρωταρχική, εκφράζεται μέσω της τελετουργίας, της μίμησης και της κοινής εμβύθισης στην δραματική αναπαράσταση. Είναι μια προθεατρική και αναγκαία, μα όχι επαρκής, συνθήκη της δραματική τέχνης. Ως τέτοια, αποτελεί εκδήλωση του κοινωνικού φαντασιακού και έκφραση της αναζήτησης της ανθρωπότητας για νόημα πέρα από τον κόσμο των φαινομένων, μεταμορφώνοντας την όψη του κόσμου.

    Έπειτα, υπάρχει η πολιτική διάσταση, η οποία σηματοδοτεί μια ρήξη με την παράδοση, όταν η ακαμψία των θρησκευτικών τελετουργιών εγκαταλείπεται υπέρ του ελεύθερου φανταστικού παιχνιδιού της δραματικής πράξης. Στο Πάριο Χρονικό, ένα ελληνιστικό χρονικό των ετών από το 1582 π.Χ. έως το 299 π.Χ., χαραγμένο σε στήλη, αναγράφεται ότι το έτος 534 π.Χ. ο Θέσπις αναδιαμόρφωσε τις παραδοσιακές χορικές παραστάσεις των διθυράμβων εισάγοντας τον υποκριτή που μπορούσε να συνομιλήσει με τον χορό, δημιουργώντας έτσι τον θεατρικό χώρο και χρόνο, τον δημόσιο χώρο και χρόνο του παραστατικού διαλόγου.

    Το κλασικό αθηναϊκό θέατρο ήταν ενσωματωμένο στη δημοκρατική πόλη (Goldhill 1999· Ober 2008). Η «θεατροκρατία» με την οποία εξισώνει τη δημοκρατία ο Πλάτων στους Νόμους, αποτυπώνει τη σύνδεση της δραματικής παράστασης και της πολιτικής. Η πολιτική διάσταση του θεάτρου έγκειται στην ικανότητά του να σκηνοθετεί την υποκειμενικότητα, την κρίση και την ευθύνη μέσα σε έναν κοινό δημόσιο χώρο. Το θέατρο είναι η κατ’ εξοχήν πολιτική τέχνη επειδή μεταφέρει την πολιτική σφαίρα της ανθρώπινης ζωής σε καλλιτεχνική μορφή.

    «Η τραγωδία είναι μίμηση, όχι ανθρώπων, αλλά μιας πράξης και μιας ζωής, και η ζωή συνίσταται στη δράση, και ο σκοπός της [το τέλος της] είναι ένας τρόπος δράσης, όχι μια ιδιότητα», σημειώνει ο Αριστοτέλης στην Ποιητική.

    Πρόκειται φυσικά για την αττική τραγωδία, όπου η τελετουργία μετατρέπεται σε δραματική ερμηνεία. Πού; Στον δημόσιο χώρο του ανοιχτού θεάτρου. Σε ποιο πλαίσιο; Ως μορφή δραματικού διαγωνισμού. Ποιος κρίνει τους διαγωνιζόμενους; Το κοινό. Το θέατρο παίζεται από τους καλλιτέχνες για το κοινό. Από μια συλλογικότητα για την κοινωνία, επειδή το δράμα πρέπει να παίζεται δημόσια ενώπιον κοινού. Γιατί πρέπει να παίζεται ενώπιον κοινού; Επειδή εκεί, στον χώρο και τον χρόνο μεταξύ των καλλιτεχνών και του κοινού, βρίσκεται η πράξη, και εκεί βρίσκεται το έλεος και ο φόβος. Η αττική τραγωδία είναι η πολιτική διάσταση της φαντασιακής αναπαράστασης της κοινωνίας ενώπιον του εαυτού της.

    Η Άρεντ υποστήριξε ότι η συγκεκριμένη ζωντανή ποιότητα της δράσης και του λόγου είναι τόσο άρρηκτα συνδεδεμένη με τη ζωντανή ροή του λόγου που μπορεί να αναπαρασταθεί μόνο μέσω ενός είδους επανάληψης της δράσης στη δημόσια σφαίρα. Ένας ζωγράφος ή ένας συνθέτης μπορεί να απευθυνθεί στον κόσμο, στον Θεό, στο σύμπαν, στην άβυσσο ή στο τίποτα. Ένας ερμηνευτής των παραστατικών τεχνών απευθύνεται πάντα στο ζωντανό κοινό.
    «Αυτός είναι και ο λόγος για τον οποίο το θέατρο είναι η κατεξοχήν πολιτική τέχνη· μόνο εκεί υπάρχει η πολιτική σφαίρα της ανθρώπινης ζωής μεταφερμένη στην τέχνη. Ομοίως, είναι η μόνη τέχνη της οποίας το μοναδικό θέμα είναι ο άνθρωπος στη σχέση του με τους άλλους.» (Άρεντ 1958: 188).
    Η πολιτική διάσταση προσφέρει την αναγκαία και επαρκή συνθήκη για το θέατρο.

    Η τρίτη διάσταση, που διατηρείται πριν και πέρα από τη μίμηση της πολιτικής, είναι η υπαρξιακή. Η υπαρξιακή διάσταση του θεάτρου αντιμετωπίζει την άβυσσο μεταξύ εσωτερικού και εξωτερικού, παρελθόντος και μέλλοντος. Αυτή η υπαρξιακή ανοιχτότητα αντιστέκεται στο αλγοριθμικό κλείσιμο (Lehmann 2006· Phelan 1993). Όπως εξάλλου, είπε και ο Bob Wilson, η δραματική επικοινωνία υπερβαίνει και τον γλωσσικό κώδικα:
    “Η γλώσσα κάνει πολλά πράγματα και τα κάνει καλά. Αλλά έχουμε την τάση να κλείνουμε τα μάτια μας σε αυτά που δεν κάνει η γλώσσα. Παρά την αλαζονεία των λέξεων – που κυβερνούν το παραδοσιακό θέατρο με σιδηρά πυγμή – δεν μπορεί να μεταφραστεί κάθε εμπειρία σε γλωσσικό κώδικα.”

    Ένα εντυπωσιακό σύγχρονο παράδειγμα της πολιτικής δύναμης των ζωντανών παραστάσεων ήταν η δράση του Belarus Free Theatre κατά τη διάρκεια των διαμαρτυριών κατά του καθεστώτος Λουκασένκο την περίοδο 2020-2021. Όταν ξέσπασαν μαζικές διαδηλώσεις μετά τις αμφισβητούμενες προεδρικές εκλογές, ο θίασος, που ήταν ήδη απαγορευμένος στη Λευκορωσία, συνέχισε να ανεβάζει παράνομες παραστάσεις σε διαμερίσματα, αποθήκες και δάση. Αυτές οι εκδηλώσεις απαιτούσαν τη φυσική συγκέντρωση σωμάτων υπό συνθήκες επιτήρησης, καταστολής και προσωπικού κινδύνου. Οι παραστάσεις τους, όπως το Dogs of Europe (2020), έγιναν πράξεις πολιτικής ανυπακοής: η απλή παρουσία του κοινού αποτελούσε πολιτική χειρονομία αντίστασης. Το θέατρο εκεί δεν λειτουργούσε ως αναπαράσταση αλλά ως ενσωματη διαφωνία, δημιουργώντας μια προσωρινή δημόσια σφαίρα που δεν μπορούσε να ψηφιοποιηθεί ή να διαμεσολαβηθεί.

    Η πολιτική σημασία αυτών των παραστάσεων έγκειται ακριβώς στην εφήμερη φύση τους, τη συμπαρουσία τους και την κοινότητα, ιδιότητες που κανένα αλγοριθμικό ή τηλεματικό σύστημα δεν μπορεί να αναπαράγει. Η δραματική δράση έγινε μια μορφή βιωμένης αντίστασης, μια ανάκτηση του δημόσιου χρόνου ενάντια στον κρατικό μηχανισμό επιτήρησης και ψηφιακού ελέγχου.

    Θα μπορούσαμε επίσης να θυμηθούμε το εγχώριο κίνημα των θεατρικών καταλήψεων ενάντια στην υποβάθμιση των δραματικών σπουδών το 2023.

    Δεν υπάρχει διαθέσιμη περιγραφή για τη φωτογραφία.

    Η δραματική δράση ταλαντεύεται μεταξύ της παράδοσης, και της αμφισβήτησης. Αυτή η ποιητική ανοιχτότητα αντιστέκεται στη χαρακτηριστική κλειστότητα των αλγοριθμικών συστημάτων, καθώς η υπαρξιακή ανθρώπινη συνθήκη αποτελεί τη βάση τόσο της τραγωδίας όσο και της κωμωδίας. Κωμωδία είναι κάθε τραγωδία που εξετάζεται από μια ειρωνική απόσταση, και τραγωδία είναι κάθε κωμωδία που υποφέρουμε από την ταύτιση με τους χαρακτήρες. Αυτό μας υπενθυμίζει τι είναι ανθρώπινο και τι όχι, όπως είπε ο Τερέντιος:
    Homo sum, humani nihil a me alienum puto: «Είμαι άνθρωπος, τίποτα που είναι ανθρώπινο δεν μου είναι ξένο.»

    Μόνο το θέατρο μπορεί να το κάνει αυτό, να μας κάνει να νιώσουμε ότι ζούμε. Βλέπουμε ανθρώπους μπροστά μας, όχι οποιαδήποτε οθόνη που μπορούμε να κλείσουμε. Τις προάλλες, βρέθηκα σε μια παράσταση που με έκανε να νιώσω πολύ άβολα. Διαφώνησα κάθετα με την ερμηνεία του έργου, αλλά την αποδέχτηκα. Δεν μπορούσα να φύγω, τόσο από ευγένεια όσο και επειδή δεν φεύγεις από το θέατρο, γιατί αν φύγεις, είναι συμβάν, παρεμβαίνεις στην παράσταση. Αυτό έχει να κάνει λοιπόν με τη σχέση μεταξύ του ατόμου και της κοινότητας, είτε αυτή η κοινότητα είναι αυτό που ονομάζουμε κοινό είτε η υποκριτική κοινότητα που ερμηνεύει.

    Το θέατρο ιστορικά έχει χρησιμεύσει ως ένας προνομιακός χώρος για την εξερεύνηση θεμελιωδών φιλοσοφικών διακρίσεων μεταξύ του Είναι, όπως αναπαρίσταται από τους ηθοποιούς, και του Φαίνεσθαι, όπως αναπαρίσταται από τα κοστούμια, καθώς και μεταξύ του Είναι, όπως παρουσιάζεται από τους χαρακτήρες, και του Γίγνεσθαι, όπως παρουσιάζεται από την πλοκή, εντός της αλληλεπίδρασης ιδιωτικού και δημόσιου χώρου.

    Το δράμα λειτουργεί στη διασταύρωση του γεγονότος, της αφήγησης και της σημασίας. Ένα γεγονός είναι μια ακολουθία περιστάσεων με σημασία· μια αφήγηση είναι η παρουσίαση τέτοιων ακολουθιών. Η ιστορική αφήγηση παραμένει ανοιχτή και αναθεωρήσιμη, ενώ η ποιητική αφήγηση σχηματίζει ένα κλειστό σύνολο παραδειγματικών γεγονότων. Ο ιστορικός χρόνος είναι συνυφασμένος με την κοινωνική δράση, δημιουργώντας παρελθόντα πεδία εμπειρίας και μελλοντικούς ορίζοντες προσδοκίας. Αντιθέτως, οι ιστορικές αφηγήσεις οργανώνουν επιλεκτικά τα γεγονότα προς έναν συγκεκριμένο σκοπό.

    Το δράμα, τοποθετημένο ανάμεσα σε αυτές τις δύο μορφές, παράγει έναν μοναδικό τρόπο αλήθειας: την αλήθεια της ενσώματης μαρτυρίας. Ο Αισχύλος, πολεμιστής στους Περσικούς Πολέμους και ποιητής της τραγωδίας των Περσών, αποτελεί παράδειγμα αυτής της συγχώνευσης της βιωμένης εμπειρίας και της δραματικής αναπαράστασης.

    Μια δραματική παράσταση δεν μπορεί να απορροφηθεί από την οθόνη. Η εμπειρία είναι διαφορετική. Κάθε βίντεο είναι μια μηχανική επανάληψη. Κάθε θεατρικό έργο από μόνο του, αλλά και κάθε αναπαράστασή του, είναι ένα ξεχωριστό θεατρικό γεγονός. Εκεί, ανάμεσα σε ενσαρκωμένους ρόλους, βρίσκεται η εφήμερη τέχνη των ζωντανών σωμάτων. Η ψηφιακή τεχνολογία δεν μπορεί να χρησιμοποιήσει το θέατρο, αλλά το θέατρο μπορεί να χρησιμοποιήσει την ψηφιακή τεχνολογία. Όταν ένας θεατρικός σκηνοθέτης αποφασίζει να προβάλει βίντεο στη σκηνή, αυτά γίνονται μέρος της ζωντανής παράστασης.

    Αν η υπόθεση είναι σωστή, οι παραστατικές τέχνες αντιπροσωπεύουν ένα κρίσιμο όριο στην ψηφιοποίηση. Η συμπαρουσία, η εφήμερη χρονικότητα και η διυποκειμενική νοηματοδότηση τις τοποθετούν πέρα από την αλγοριθμική ομογενοποίηση. Σε μια εποχή ψηφιακής επιτήρησης και διαμεσολαβημένης επικοινωνίας, οι παραστατικές τέχνες ενεργοποιούν τη δυνατότητα του δημόσιου χρόνου, όπου η ανθρώπινη δράση συνεχίζει να διέρχεται από την ενσώματη, συλλογική εμπειρία.


    Βιβλιογραφία:

    Arendt, Hannah, The Human Condition (Chicago: University of Chicago Press, 1958)

    Auslander, Philip, Liveness: Performance in a Mediatized Culture (London: Routledge, 1999)

    Bay-Cheng, Sarah, Jennifer Parker-Starbuck, and David Z. Saltz, Performance and Media: Taxonomies for a Changing Field (Ann Arbor: University of Michigan Press, 2016)

    Brook, Peter, The Empty Space (New York: Atheneum, 1968)

    Burkert, Walter, Greek Religion (Cambridge, MA: Harvard University Press, 1985)

    Cantwell Smith, Brian, The Promise of Artificial Intelligence: Reckoning and Judgment (Cambridge, MA: MIT Press, 2019)

    Casey, Edward S., The Fate of Place: A Philosophical History (Berkeley: University of California Press, 1997)

    Καστοριάδης, Κορνήλιος, Η Φαντασιακή Θέσμιση της Κοινωνίας (Αθήνα: Ράππα, 1981)

    Causey, Matthew, Theatre and Performance in Digital Culture: From Simulation to Embeddedness (London: Routledge, 2016)

    Chun, Wendy Hui Kyong, Updating to Remain the Same: Habitual New Media (Cambridge, MA: MIT Press, 2016)

    Crary, Jonathan, 24/7: Late Capitalism and the Ends of Sleep (London: Verso, 2013)

    Crawford, Kate, The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence (New Haven: Yale University Press, 2021)

    Danto, Arthur, The Transfiguration of the Commonplace (Cambridge, MA: Harvard University Press, 1981)

    Dixon, Steve, Digital Performance: A History of New Media in Theater, Dance, Performance Art, and Installation (Cambridge, MA: MIT Press, 2007)

    Dreyfus, Hubert L., What Computers Can’t Do (New York: Harper & Row, 1972)

    Dreyfus, Hubert L., What Computers Still Can’t Do (Cambridge, MA: MIT Press, 1992)

    Fischer-Lichte, Erika, The Transformative Power of Performance: A New Aesthetics (London: Routledge, 2008)

    Goldhill, Simon, Performance Culture and Athenian Democracy (Cambridge: Cambridge University Press, 1999)

    Goodman, Nelson, Languages of Art: An Approach to a Theory of Symbols (Indianapolis: Hackett, 1976)

    Hansen, Mark B. N., New Philosophy for New Media (Cambridge, MA: MIT Press, 2004)

    Hayles, N. Katherine, How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics (Chicago: University of Chicago Press, 1999)

    Honig, Bonnie, Antigone, Interrupted (Cambridge: Cambridge University Press, 2013)

    Lehmann, Hans-Thies, Postdramatic Theatre (London: Routledge, 2006)

    Merleau-Ponty, Maurice, Phenomenology of Perception (Paris: Gallimard, 1945)

    Ober, Josiah, Democracy and Knowledge: Innovation and Learning in Classical Athens (Princeton: Princeton University Press, 2008)

    Phelan, Peggy, Unmarked: The Politics of Performance (London: Routledge, 1993)

    Schechner, Richard, Between Theater and Anthropology (Philadelphia: University of Pennsylvania Press, 1985)

    Schechner, Richard, Performance Studies: An Introduction (London: Routledge, 2002)

    Σχισμένος, Αλέξανδρος, Artificial Intelligence and Barbarism: A Critique of Digital Reason (Αθήνα: Athens School, 2024)

    Schneider, Rebecca, Performing Remains: Art and War in Times of Theatrical Reenactment (London: Routledge, 2011)

    Song, Peiyang, Pengrui Han, and Noah Goodman, “Large Language Model Reasoning Failures” (2026), https://arxiv.org/pdf/2602.06176

    Stiegler, Bernard, Technics and Time, 3 vols. (Stanford: Stanford University Press, 1998–2010)

    Suchman, Lucy, Plans and Situated Actions: The Problem of Human-Machine Communication (Cambridge: Cambridge University Press, 1987)

    Taylor, Diana, The Archive and the Repertoire: Performing Cultural Memory in the Americas (Durham: Duke University Press, 2003)

    Turner, Victor, The Ritual Process: Structure and Anti-Structure (Chicago: Aldine, 1969)

    Zuboff, Shoshana, The Age of Surveillance Capitalism (New York: PublicAffairs, 2019

    The post Οι Παραστατικές Τέχνες ως Όριο του Ψηφιακού: Θεατρικός Χρόνος και Τεχνητή Νοημοσύνη first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/02/23/theatre_ai/feed/ 0 22231
    Μπροστά στην ψηφιακή βαρβαρότητα: Αξιολογώντας την Έκθεση Παγκόσμιων Κινδύνων 2026 του Παγκόσμιου Οικονομικού Φόρουμ https://www.aftoleksi.gr/2026/02/19/psifiaki-varvarotita-axiologontas-tin-global-risks-report-2026/?utm_source=rss&utm_medium=rss&utm_campaign=psifiaki-varvarotita-axiologontas-tin-global-risks-report-2026 https://www.aftoleksi.gr/2026/02/19/psifiaki-varvarotita-axiologontas-tin-global-risks-report-2026/#respond Thu, 19 Feb 2026 05:58:52 +0000 https://www.aftoleksi.gr/?p=22161 του Αλέξανδρου Σχισμένου Εισαγωγή Στις 14 Ιανουαρίου 2026, το Παγκόσμιο Οικονομικό Φόρουμ εξέδωσε την Έκθεση για τους Παγκόσμιους Κινδύνους [Global Risks Report], μια ολοκληρωμένη επίσημη ανάλυση των πιθανών κινδύνων που αντιμετωπίζει ο πλανήτης το 2026. Αυτό έγγραφο συντάχθηκε αποκλειστικά από το Παγκόσμιο Οικονομικό Φόρουμ πριν από την Ετήσια Συνάντηση του 2026, που πραγματοποιήθηκε με θέμα [...]

    The post Μπροστά στην ψηφιακή βαρβαρότητα: Αξιολογώντας την Έκθεση Παγκόσμιων Κινδύνων 2026 του Παγκόσμιου Οικονομικού Φόρουμ first appeared on Aυτολεξεί.

    ]]>
    του Αλέξανδρου Σχισμένου

    Εισαγωγή

    Στις 14 Ιανουαρίου 2026, το Παγκόσμιο Οικονομικό Φόρουμ εξέδωσε την Έκθεση για τους Παγκόσμιους Κινδύνους [Global Risks Report], μια ολοκληρωμένη επίσημη ανάλυση των πιθανών κινδύνων που αντιμετωπίζει ο πλανήτης το 2026. Αυτό έγγραφο συντάχθηκε αποκλειστικά από το Παγκόσμιο Οικονομικό Φόρουμ πριν από την Ετήσια Συνάντηση του 2026, που πραγματοποιήθηκε με θέμα «Το πνεύμα του διαλόγου» από τις 19 έως τις 23 Ιανουαρίου στο Νταβός της Ελβετίας. Σύμφωνα με τους συντάκτες του κειμένου:

    «Η Έκθεση Παγκόσμιων Κινδύνων 2026, η 21η έκδοση αυτής της ετήσιας έκθεσης, σηματοδοτεί το δεύτερο μισό μιας ταραχώδους δεκαετίας. Η έκθεση αναλύει τους παγκόσμιους κινδύνους μέσα από τρία χρονικά πλαίσια, με σκοπό να υποστηρίξει τους υπεύθυνους λήψης αποφάσεων στην εξισορρόπηση των τρεχουσών κρίσεων και των μακροπρόθεσμων προτεραιοτήτων».

    Μεταξύ των πολυάριθμων πιθανών κινδύνων που ελλοχεύουν στο μέλλον, το έγγραφο δίνει ιδιαίτερη έμφαση στην επέκταση της Τεχνητής Νοημοσύνης, και για καλούς λόγους.
    Στις επόμενες παραγράφους, θα σχολιάσω τα ευρήματα της GRR 2026, τα οποία θεωρώ ενδείξεις της ανόδου της ψηφιακής βαρβαρότητας, την οποία εννοώ, στο πλαίσιο της έρευνάς μου για τον Ψηφιακό Λόγο, ως τη συστημική διάβρωση των κοινωνικών σημασιών που προκαλείται από την κυριαρχία της αλγοριθμικής λογικής. Εκδηλώνεται όταν τα υπολογιστικά συστήματα αναδιοργανώνουν τις συνθήκες υπό τις οποίες τα άτομα και οι συλλογικότητες ερμηνεύουν, ενεργούν και φαντάζονται.

    Για να συνοψίσω το επιχείρημα του πρόσφατου βιβλίου μου «Τεχνολογία και βαρβαρότητα: Κριτική της τεχνητής νοημοσύνης”, η τεχνητή νοημοσύνη πρέπει να γίνει κατανοητή όχι ως αυτόνομος παράγοντας, αλλά ως έκφραση των κυρίαρχων φαντασιακών σημασιών της σύγχρονης κοινωνίας. Η ψηφιακή επανάσταση δεν είναι απλώς τεχνική· είναι μια οντολογική επανάσταση που αναδιαμορφώνει το νόημα, την υποκειμενικότητα και τον κοινωνικό χρόνο. Αυτό όμως έχει φτάσει σε νέα ύψη μετά τον ταχέως ψηφιακό μετασχηματισμό κατά τη διάρκεια της πανδημίας, την δημόσια κυκλοφορία του ChatGPT τον Νοέμβριο του 2022 και την ταχεία και εκτεταμένη διάδοση των εφαρμογών τεχνητής νοημοσύνης σε όλους τους τομείς της κοινωνικής ζωής.
    Η GRR 2026 του Παγκόσμιου Οικονομικού Φόρουμ αναγνωρίζει ότι:

    «Η τεχνητή νοημοσύνη έχει μετατραπεί από μια πρωτοποριακή τεχνολογία σε μια συστημική δύναμη που διαμορφώνει τις οικονομίες, τις κοινωνίες και την ασφάλεια. Το μέγεθος της παγκόσμιας αγοράς για την τεχνητή νοημοσύνη προβλέπεται να αυξηθεί από περίπου 280 δισεκατομμύρια δολάρια το 2024 σε 3,5 τρισεκατομμύρια δολάρια έως το 2033.» – GRR2026.

    Φαίνεται ότι έχουμε εισέλθει σε μια νέα φάση της ψηφιακής οντολογικής επανάστασης, που κάποιοι αποκαλούν Web 4.0, «έξυπνο» ή «συμβιωτικό» διαδίκτυο, όπου η τεχνητή νοημοσύνη εμφανίζεται ως παράγοντας που μιμείται και αναπαράγει την ανθρώπινη επικοινωνία. Τα συστήματα τεχνητής νοημοσύνης έχουν διεισδύσει στην επικοινωνία, την εργασία, την εκπαίδευση και τη διακυβέρνηση, ενώ ο δημόσιος διάλογος έχει πολωθεί σε τεχνοφιλικά οράματα προόδου και τεχνοφοβικούς φόβους κατάρρευσης.

    Και οι δύο τάσεις βασίζονται σε υπερβολικές αφηγήσεις που συσκοτίζουν τις βαθύτερες κοινωνικο-ιστορικές δυναμικές. Προέρχονται από το φαντασιακό της εργαλειακής λογικής, με κριτήρια την αποδοτικότητα, τη βελτιστοποίηση και την ποσοτικοποίηση. Είναι το καπιταλιστικό κοινωνικό φαντασιακό που πηγάζει από την καρτεσιανή επιταγή να «γίνουμε οι άρχοντες και οι ιδιοκτήτες της φύσης» [Descartes 1635].

    Η άκριτη τεχνοφιλία είναι μια βασική φανταστική σημασία της καπιταλιστικής νεωτερικότητας και, ως τέτοια, υιοθετήθηκε από μερικούς από τους πιο κριτικούς αντιπάλους του βιομηχανικού καπιταλισμού, όπως ο Saint-Simon, ο Fourier και, κυρίως, ο Karl Marx. Ο Καστοριάδης έχει επισημάνει ότι ένα από τα συντηρητικά στοιχεία της μαρξιστικής σκέψης είναι η αποδοχή της τεχνολογίας ως δύναμης προόδου και η τάση να περιστέλλεται η παραγωγή, η ανθρώπινη δραστηριότητα που διαμεσολαβείται από όργανα και αντικείμενα, η εργασία, σε «παραγωγικές δυνάμεις», δηλαδή στην τεχνική. [Η Φαντασιακή Θέσμιση της Κοινωνίας].

    Η ψηφιακή επανάσταση είναι, επομένως, μια μεταμόρφωση του συμβολικού πεδίου μέσω του οποίου οι κοινωνίες ερμηνεύουν τον εαυτό τους. Η τεχνητή νοημοσύνη γίνεται η προνομιακή έκφραση αυτού του φαντασιακού: ένας μηχανισμός πρόβλεψης, ελέγχου και αυτοματοποίησης, ως αιχμή του δόρατος της καπιταλιστικής προσπάθειας για την πλήρη κυριαρχία της φύσης, τόσο της άψυχης όσο και της ανθρώπινης, μέσω της ψηφιοποίησης. Η ψηφιακή βαρβαρότητα δεν μπορεί να γίνει κατανοητή χωρίς αναφορά σε αυτές τις φαντασιακές σημασίες.

    Ο ορίζοντας της ψηφιακής βαρβαρότητας δεν είναι το χάος, αλλά η υποταγή της κοινωνικής ζωής στην αλγοριθμική διακυβέρνηση βασισμένη σε αυτοματοποιημένες παραμέτρους ελεγχόμενες από απρόσιτους μηχανισμού εξουσίας.

    Η άνοδος της μυθοπληροφορίας

    Η GRR 2026 είναι ένα επίσημο έγγραφο που υπογραμμίζει τους κινδύνους της ψηφιακής βαρβαρότητας και δικαιολογεί τις υποψίες μας, ξεκινώντας από την Εισαγωγή:

    «Η παραπληροφόρηση, η αποπληροφόρηση και η ανασφάλεια στον κυβερνοχώρο κατατάχθηκαν στην 2η και 6η θέση των μεγαλύτερων κινδύνων, αντίστοιχα, στην προοπτική των δύο ετών. Τα αρνητικά αποτελέσματα της τεχνητής νοημοσύνης είναι ο κίνδυνος με τη μεγαλύτερη άνοδο στην κατάταξη με την πάροδο του χρόνου, μετακινούμενος από την 30η θέση στην προοπτική των δύο ετών στην 5η θέση στην προοπτική των 10 ετών.» – GRR 2026

    Η παραπληροφόρηση και η αποπληροφόρηση στον κυβερνοχώρο είναι το αποτέλεσμα αυτού που ο Langdon Winner ονόμασε «μυθοπληροφορία» [mythinformation], δηλαδή «η σχεδόν θρησκευτική πεποίθηση ότι η ευρεία υιοθέτηση υπολογιστών και συστημάτων επικοινωνίας και η ευρεία πρόσβαση σε ηλεκτρονικές πληροφορίες θα δημιουργήσουν αυτόματα έναν καλύτερο κόσμο για την ανθρωπότητα». (Winner 1984.)

    Η πιο άμεση και προφανής επίδραση της μυθοπληροφόρησης είναι οικονομική και συνδέεται άμεσα με την αύξηση των χρηματοοικονομικών επενδύσεων σε εταιρείες τεχνητής νοημοσύνης.
    Οι σύγχρονες ψηφιακές αγορές αντιπροσωπεύουν αυτό που η Shoshana Zuboff αποκαλεί «καπιταλισμό της επιτήρησης» – μια νέα οικονομική τάξη που θεωρεί την ανθρώπινη εμπειρία ως «ελεύθερη πρώτη ύλη» για εμπορικές πρακτικές εκμετάλλευσης και τροποποίησης της συμπεριφοράς. Αυτό αντιπροσωπεύει ένα «άνωθεν πραξικόπημα» και μια «ψηφιακή στέρηση» της ελευθερίας.

    Αντλώντας από τις «μυθοπλασίες των εμπορευμάτων» του Karl Polanyi (η εργασία ως ζωή, η φύση ως ακίνητη περιουσία, το χρήμα ως μέσο ανταλλαγής), μπορούμε να εντοπίσουμε μια τέταρτη μυθοπλασία: τη μετατροπή της προσωπικής εμπειρίας και της ατομικής συμπεριφοράς σε αξίες της αγοράς. Μέσω των «αλγορίθμων εξατομίκευσης», οι ιδιωτικές εταιρείες αντικειμενοποιούν την προσωπική εμπειρία, περιστέλλοντας τα άτομα σε μετρήσιμα πρότυπα συμπεριφοράς με σκοπό την προσέλκυση της προσοχής και την κατανάλωση χρόνου.

    Η τεχνητή νοημοσύνη συμβάλλει σε αυτό που ο Luciano Floridi αποκαλεί περιτύλιξης («enveloping»). Αντί να κατασκευάζονται μηχανές προσαρμοσμένες στον ανθρώπινο κόσμο, οι κοινωνικές σχέσεις μετασχηματίζονται για να προσαρμοστούν στις ψηφιακές τεχνολογίες και τις εφαρμογές τεχνητής νοημοσύνης. Μα η επέκταση της τεχνητής νοημοσύνης δεν ωθείται από τεχνολογικά επιτεύγματα αλλά από την πολιτική βούληση συγκεκριμένων μηχανισμών.

    Το 2025, οι χρηματιστηριακές αγορές επηρεάστηκαν από πολιτικές αποφάσεις σχετικά με τη χρηματοδότηση εταιρειών τεχνητής νοημοσύνης σε όλο τον κόσμο.

    Την πρώτη εβδομάδα της προεδρίας του, μετά την ορκωμοσία του στις 20 Ιανουαρίου 2025, ο Ντόναλντ Τραμπ ανακοίνωσε ένα πακέτο 500 δισεκατομμυρίων δολαρίων για την ανάπτυξη της ψηφιακής τεχνολογίας.
    Μια εβδομάδα αργότερα, δύο κινεζικές εταιρείες [DeepSeek και ByteDance, ιδιοκτήτρια της TikTok] παρουσίασαν μοντέλα TN [LLM] που λειτουργούν με 50 φορές χαμηλότερο κόστος εκπαίδευσης.
    Στις 18 Φεβρουαρίου 2025, ο Elon Musk παρουσίασε το τελευταίο μοντέλο Γενετικής Τεχνητής Νοημοσύνης από την εταιρεία του xAI, το Grok 3, το οποίο περιλαμβάνει ένα chatbot, δύο μοντέλα συλλογιστικής και έναν ψηφιακό βοηθό έρευνας, ισχυριζόμενος ψευδώς ότι μιμείται την «ανθρώπινη νοημοσύνη». Τροφοδοτείται από τον υπερυπολογιστή xAI Colossus, με 200.000 μονάδες επεξεργασίας γραφικών [GPUs], και έχει προ-εκπαιδευτεί για 1.000.000 ώρες GPU. Βρίσκεται στο Μέμφις και το σύστημα καταναλώνει 18.927.058 λίτρα νερού την ημέρα για ψύξη. Κατασκευάστηκε σε λιγότερο από οκτώ μήνες και περιλαμβάνει μεγάλες ενεργειακές εγκαταστάσεις για το ψηφιακό σύστημα που καταναλώνει μεγάλη ποσότητα ενέργειας.
    Κατά τη διάρκεια του καλοκαιριού, ο Πρόεδρος Τραμπ αποφάσισε ότι οι εταιρείες τεχνητής νοημοσύνης θα μπορούσαν να χρηματοδοτούν τις δικές τους ενεργειακές εγκαταστάσεις χρησιμοποιώντας ομοσπονδιακούς πόρους. Με προεδρικό διάταγμα στις 12 Δεκεμβρίου 2025, ο Τραμπ ανέστειλε το δικαίωμα των Πολιτειών να θεσπίζουν ρυθμιστικούς νόμους και περιορισμούς για τις εταιρείες τεχνητής νοημοσύνης.

    Μεταξύ άλλων, τα παραπάνω πολιτικά – και όχι επιστημονικά – γεγονότα συνέβαλαν στην εκτίναξη των επενδύσεων σε εταιρείες τεχνητής νοημοσύνης:

    «Οι συνολικές δαπάνες για την τεχνητή νοημοσύνη παγκοσμίως εκτιμάται ότι θα ανέλθουν σε 1,5 τρισεκατομμύρια δολάρια το 2025 και προβλέπεται να αυξηθούν σε 2 τρισεκατομμύρια δολάρια το 2026, με κύρια τμήματα να είναι τα smartphone γενετικής τεχνητής νοημοσύνης (genAI), οι διακομιστές βελτιστοποιημένοι για τεχνητή νοημοσύνη, υπηρεσίες τεχνητής νοημοσύνης, λογισμικό εφαρμογών τεχνητής νοημοσύνης, ημιαγωγοί επεξεργασίας τεχνητής νοημοσύνης και λογισμικό υποδομής τεχνητής νοημοσύνης.68 Μόνο οι κεφαλαιουχικές δαπάνες των οκτώ κορυφαίων υπερμεγέθων παρόχων υπηρεσιών cloud (hyperscalers) των ΗΠΑ ανήλθαν σε 258 δισεκατομμύρια δολάρια το 2024 και προβλέπεται να υπερδιπλασιαστούν σε 525 δισεκατομμύρια δολάρια το 2032.» – GRR2026: 44

    Ωστόσο, οι υποσχέσεις για την Γενική Τεχνητή Νοημοσύνη [AGI] δεν υλοποιήθηκαν και άρχισαν να εκδηλώνονται φόβοι για μια πιθανή οικονομική φούσκα.
    Όπως επισημαίνει η GRR2026, αυτή η αύξηση των κεφαλαιουχικών επενδύσεων ενέχει σημαντικό κίνδυνο:

    «Υπάρχει επί του παρόντος ευρεία ανησυχία σχετικά με τις αυξημένες τιμές των μετοχών των μεγαλύτερων εταιρειών τεχνολογίας, και το 2025 παρατηρήθηκαν περιόδους έντονου ενδιαφέροντος των επενδυτών όχι μόνο για μετοχές που σχετίζονται με την τεχνητή νοημοσύνη (AI), αλλά και για τομείς όπως η πυρηνική ενέργεια, η κβαντική ενέργεια ή οι σπάνιες γαίες. Η απότομη άνοδος των τιμών των πολύτιμων μετάλλων έχει προκαλέσει ανησυχίες για φούσκα και σε αυτόν τον τομέα. Ορισμένες από αυτές τις τιμές έχουν σταθεροποιηθεί ή διορθωθεί έκτοτε, αλλά οι ανησυχίες για την υπερτίμηση των αγορών παραμένουν. Εάν οι προβλέψεις για το σκάσιμο της φούσκας των περιουσιακών στοιχείων αποδειχθούν αληθινές, οι πιθανές επιπτώσεις μπορεί να είναι σημαντικές. Οι παγκόσμιοι θεσμικοί και ιδιώτες επενδυτές έχουν επενδύσει σε μεγάλο βαθμό στις αμερικανικές χρηματιστηριακές αγορές σε σχέση με τα ιστορικά πρότυπα, οπότε οι πιθανές επιπτώσεις ενός κραχ θα μπορούσαν να είναι σοβαρές για την παγκόσμια οικονομία. Το 85% των επικεφαλής οικονομολόγων παγκοσμίως τον Σεπτέμβριο του 2025 πιστεύουν ότι ένα χρηματοπιστωτικό σοκ θα είχε ευρείες συστημικές επιπτώσεις.» – GRR2026

    Το Παγκόσμιο Οικονομικό Φόρουμ επιβεβαιώνει την εικόνα ενός φαύλου οικονομικού κύκλου, όπως τον περιέγραψε ο Δρ. Άλεξ Παζαΐτης σε μια διαδικτυακή συζήτηση: τα έσοδα των εταιρειών που αναπτύσσουν μοντέλα τεχνητής νοημοσύνης για την αγορά είναι πενιχρά σε σύγκριση με τις συνεχώς αυξανόμενες δεσμεύσεις τους για δαπάνες και επενδύσεις σε περισσότερη υπολογιστική ισχύ. Έτσι, η χρηματοδότησή τους συνεχίζεται με χρήματα που λαμβάνουν από «επενδύσεις» εταιρειών όπως η NVidia, από την οποία στη συνέχεια αγοράζουν επεξεργαστές. Η NVidia «επενδύει» ταυτόχρονα κεφάλαια σε εταιρείες που παρέχουν υποδομή υπολογιστικού νέφους, όπως η Oracle, η οποία στη συνέχεια αγοράζει επεξεργαστές από την NVidia για να προσφέρει υπηρεσίες σε εταιρείες όπως η OpenAI για τη φιλοξενία των δεδομένων των μοντέλων τους. Και ο κύκλος των αυτοαναφορικών επενδύσεων συνεχίζεται ασταμάτητα.

    Μπορούμε να το ονομάσουμε οικονομικό φαύλο κύκλο αυτοαναφορικών επενδύσεων.

    Αυτός ο φαύλος κύκλος αυτοαναφορικών επενδύσεων μπορεί να συνεχιστεί για κάποιο διάστημα, έως ότου σκάσει η φούσκα λόγω της συσσώρευσης πολιτικού κεφαλαίου από εταιρείες τεχνητής νοημοσύνης που ανήκουν σε επιρροή πολιτικούς παράγοντες όπως ο Elon Musk. Αυτό μόνο διευρύνει τον φαύλο κύκλο ώστε να περιλαμβάνει και άλλους τομείς της επικοινωνίας, των διαστημικών ταξιδιών και των μεταφορών και διευρύνει την περιοχή επιρροής της ψηφιακής μυθοπληροφόρησης.

    Και η τάση μεγέθυνσης συνεχίζεται το 2026. Τον Φεβρουάριο, ο Elon Musk συγχώνευσε το X [Twitter] με την xAI [Grok] ώστε η ΤΝ να έχει άμεση πρόσβαση σε όλα τα δεδομένα των χρηστών και έπειτα συγχώνευσε την xAI με την SpaceX, υποσχόμενος data centers στη Σελήνη και Τεχνητή Νοημοσύνη στο διάστημα. Εκατοντάδες εργαζόμενοι παραιτήθηκΝ από την xAI γιατί καταργήθηκε το τμήμα ασφάλειας της ΤΝ και κάθε προληπτικός περιορισμός.

    Σύμφωνα με όλες τις ενδείξεις, είμαστε ήδη στην εποχή του άγριου καπιταλιστικού ανταγωνισμού για την κυριαρχία στην ΤΝ.

    Η συγκέντρωση πολιτικού και οικονομικού κεφαλαίου, υπολογιστικής ισχύος, δεδομένων χρηστών και ψηφιακής τεχνολογίας σε μια χούφτα εταιρειών δημιουργεί μια απότομη ιεραρχική πυραμίδα πληροφοριακής ισχύος που διευρύνει το χάσμα της ανισότητας τόσο σε κοινωνική όσο και σε διεθνή κλίμακα. Η GRR2026 επισημαίνει την άνιση κατανομή της ισχύος όσον αφορά την τεχνητή νοημοσύνη:

    «Η πρόσβαση σε υποδομές τεχνητής νοημοσύνης, καθώς και σε ηλεκτρική ενέργεια, πρόσβαση στο διαδίκτυο και αποθήκευση δεδομένων, θα ενισχύσει τις μεταβολές στην οικονομική ισχύ μεταξύ των χωρών κατά την επόμενη δεκαετία, καθώς τα οφέλη της τεχνητής νοημοσύνης σε επίπεδο παραγωγικότητας θα παρακάμψουν εντελώς ορισμένους πληθυσμούς, αν και θα τους προστατεύσουν από ορισμένους κινδύνους. Για παράδειγμα, η υιοθέτηση της τεχνητής νοημοσύνης στη Βόρεια Αμερική (27% του πληθυσμού σε ηλικία εργασίας) είναι τριπλάσια από εκείνη στην υποσαχάρια Αφρική (9%).
    Μόνο λίγα κέντρα δεδομένων τεχνητής νοημοσύνης βρίσκονται σε αναπτυσσόμενες περιοχές, με τις Ηνωμένες Πολιτείες, την Ευρώπη και την Ανατολική Ασία να κυριαρχούν σε όρους χωρητικότητας. Εντός των χωρών, το χάσμα μεταξύ των γεωγραφικών περιοχών που έχουν ενσωματώσει την τεχνητή νοημοσύνη και των περιφερειών που έχουν αποκλειστεί μπορεί επίσης να οδηγήσει σε τοπικές μεταβολές της ισχύος, να δημιουργήσει εσωτερικές μεταναστευτικές πιέσεις και να αποσταθεροποιήσει την εθνική συνοχή.» – GRR2026

    Αυτό σηματοδοτεί μια σημαντική διεύρυνση του μετα-αποικιακού χάσματος εξουσίας μεταξύ των δυτικών/ανατολικών τεχνοκαπιταλιστικών χωρών και των φτωχών χωρών του παγκόσμιου Νότου. Αλλά σηματοδοτεί επίσης μια διεύρυνση του εσωτερικού χάσματος ισότητας μεταξύ των κυβερνώντων ελίτ και των εργατικών τάξεων εντός κάθε χώρας.

    Η GRR2026 αφιερώνει ένα ολόκληρο κεφάλαιο [2.7] στη συζήτηση τριών ομάδων κινδύνων που συνδέονται με τις εφαρμογές της τεχνητής νοημοσύνης:

    «Πρώτον, οι ευρέως αναφερόμενες ανησυχίες σχετικά με τον αντίκτυπο στις αγορές εργασίας θα μπορούσαν να οδηγήσουν σε βαθύτερη κοινωνική πόλωση, εάν αυξηθεί η ανεργία και οι εργαζόμενοι δυσκολευτούν να προσαρμοστούν σε νέα καθήκοντα και ρόλους. Σε ένα τέτοιο σενάριο, θα μπορούσαν να εκδηλωθούν ταυτόχρονα τόσο υψηλότερη παραγωγικότητα όσο και υψηλότερη ανεργία».

    Σημειώστε αυτή τη φράση: υψηλότερη παραγωγικότητα με υψηλότερη ανεργία. Αυτό είναι άμεση συνέπεια της επέκτασης της αυτοματοποίησης σε όλες τις κοινωνικές λειτουργίες που μπορούν να αναχθούν σε αλγοριθμικές λειτουργίες. Φαίνεται επίσης να συνάδει με την κεντρική φαντασιακή σημασία του νεοφιλελεύθερου δόγματος του καπιταλισμού, που δίνει έμφαση στο κέρδος έναντι της παραγωγής, ενώ ταυτόχρονα αποτελεί την υλοποίηση της φαντασιακής σημασίας της τεχνοκρατίας, της μείωσης του ανθρώπινου παράγοντα στην παραγωγή.
    Φυσικά, τα αποτελέσματα είναι κοινωνική αναταραχή, μαζική ανεργία, μαζική φτώχεια, η ξαφνική υποτίμηση της σημασίας της εργασίας και η ρήξη των κοινωνικών δεσμών.

    Μπορούμε να το ονομάσουμε πολιτικό φαύλο κύκλο συστημικής ανισότητας σε εθνικό και διεθνές επίπεδο.

    Παρόλα αυτά, θα πρέπει να διευρύνουμε τον ορισμό της συστημικής ανισότητας ώστε να συμπεριλάβει την οικολογική καταστροφή, η οποία μπορεί να επηρεάσει όλους, αλλά δεν έχουν όλοι τα μέσα να μετριάσουν την καταστροφή στη δημόσια υγεία και τις συνθήκες διαβίωσης. Η GRR2026 επισημαίνει τους περιβαλλοντικούς κινδύνους της τεχνητής νοημοσύνης:

    «Υπάρχουν επίσης δευτερογενείς φυσιολογικές επιπτώσεις στην υγεία, που προέρχονται από τις περιβαλλοντικές επιπτώσεις των γενετικών μοντέλων τεχνητής νοημοσύνης. Αυτά μπορούν να καταναλώνουν έως και 4.600 φορές περισσότερη ενέργεια από το παραδοσιακό λογισμικό. Οι υποδομές που σχετίζονται με την τεχνητή νοημοσύνη μπορούν να οδηγήσουν σε υποβάθμιση της ποιότητας του αέρα και ρύπανση από την κατασκευή, την παραγωγή ηλεκτρικής ενέργειας και τη διάθεση ηλεκτρονικών αποβλήτων. Μόνο στις Ηνωμένες Πολιτείες, αυτό θα μπορούσε να επιβαρύνει τη δημόσια υγεία με πάνω από 20 δισεκατομμύρια δολάρια ετησίως έως το 2028» – GRR2026: 54

    Τέτοιες είναι οι επιπτώσεις της κατεστημένης παραπληροφόρησης γύρω από τις εμπορευματοποιημένες μελλοντικές προβλέψεις της τεχνητής νοημοσύνης στους εξωτερικούς κοινωνικούς τομείς της οικονομίας, της οικολογίας και της πολιτικής. Ωστόσο, αυτές οι επιπτώσεις αντανακλώνται και διπλασιάζονται στους εσωτερικούς ιδιωτικούς τομείς της διαπροσωπικής επικοινωνίας και της αντίληψης της πραγματικότητας.

    Οι κίνδυνοι της μυθοπληροφόρησης είναι ακόμη μεγαλύτεροι στον κυβερνοχώρο από ό,τι στις χρηματιστηριακές αγορές. Ο κυβερνοχώρος, ως μια νέα σφαίρα ύπαρξης, αντιπροσωπεύει μια μορφή ετερότητας (διαφορετικότητας) όπου το υποκειμενικό και το αντικειμενικό συγχωνεύονται σε μια εικονική υποκειμενική αντικειμενικότητα. Αυτό υποδηλώνει ότι το Διαδίκτυο δεν μεσολαβεί απλώς στις υπάρχουσες επικοινωνίες μας, αλλά δημιουργεί ένα ενδιάμεσο ψηφιακό στρώμα με μοναδικά επιστημολογικά χαρακτηριστικά και δυνατότητες, όπου η τηλεπαρουσία προϋποθέτει φυσική απουσία και η επικοινωνία περιορίζεται στη σύνταξη. Αυτά υπογραμμίζουν τους γνωσιακούς κινδύνους της τεχνητής νοημοσύνης.

    «Δεύτερον, καθώς όλο και περισσότερες εργασίες αναλαμβάνονται από την τεχνητή νοημοσύνη και οι δεξιότητες που προηγουμένως εφαρμόζονταν από τον άνθρωπο αρχίζουν να ατροφούν, δεν είναι σαφές αν η πορεία προς τα εμπρός θα είναι μια χρυσή εποχή για τη δημιουργικότητα, τον ελεύθερο χρόνο και τη μάθηση – ή, αντίθετα, μια ώθηση προς την απουσία σκοπού, την απάθεια και την κοινωνική παρακμή». – GRR2026

    Τα μεγάλα γλωσσικά μοντέλα εισάγουν μια νέα γνωστική αστάθεια. Τα αποτελέσματά τους είναι εύλογα αλλά αναξιόπιστα, συχνά υπερβάλλοντας ή παραμορφώνοντας τα συμπεράσματα. Καθώς διεισδύουν στην εκπαίδευση, την έρευνα και την πολιτική, απειλούν να αυτοματοποιήσουν τα γνωστικά λάθη σε μεγάλη κλίμακα.

    Στην εποχή της τεχνητής νοημοσύνης, η παραπληροφόρηση εξαπλώνεται ραγδαία μέσω πλατφορμών που έχουν βελτιστοποιηθεί για να προσελκύουν την προσοχή, εκτοπίζοντας τον λογικό διάλογο και διαβρώνοντας το δημόσιο πεδίο επικοινωνίας σε παγκόσμια κλίμακα μέσω των ψηφιακών κοινωνικών μέσων. Η αυξανόμενη εξάρτηση από εφαρμογές τεχνητής νοημοσύνης για την παραγωγή κοινής γνώσης έχει αρχίσει να απειλεί την κοινή δημόσια αντίληψη για την πραγματικότητα.

    «Η αυξανόμενη εξάρτηση τόσο από τα μέσα κοινωνικής δικτύωσης όσο και από τα εργαλεία τεχνητής νοημοσύνης ενισχύει τον αντίκτυπο της αλγοριθμικής μεροληψίας, η οποία διαμορφώνει τις πληροφορίες που βλέπουν οι χρήστες στο διαδίκτυο και ενισχύει την έκθεση των ατόμων σε πληροφορίες που συνάδουν με τις απόψεις τους. Αυτό μπορεί να δημιουργήσει ευρέως αποκλίνουσες απόψεις σχετικά με τα πραγματικά γεγονότα και τις εξελίξεις. Οι επιπτώσεις αρχίζουν να γίνονται ακόμη πιο βαθιές. Ο τρόπος με τον οποίο ερμηνεύονται τα γεγονότα του πραγματικού κόσμου στο διαδίκτυο, σε συνδυασμό με την αυξανόμενη κυκλοφορία βίαιου περιεχομένου στα μέσα κοινωνικής δικτύωσης, μπορεί να οδηγεί τους πολίτες να γίνονται πιο συναισθηματικά και γνωστικά αποστασιοποιημένοι και αδιάφοροι απέναντι στις ανθρώπινες τραγωδίες». – GRR2026

    Πρέπει να τονίσουμε ότι, δεδομένης της εξάρτησης του παγκόσμιου κοινού από τις ψευδείς πληροφορίες, η κοινή λογική γύρω από την πραγματικότητα μπορεί εύκολα να χειραγωγηθεί μέσω της προπαγάνδας, ακόμη και πριν από την τεχνητή νοημοσύνη. Ωστόσο, πρέπει να παρατηρήσουμε ότι η διείσδυση του ψηφιακού πεδίου στο κοινωνικό φαντασιακό είναι τόσο βαθιά που οι εφαρμογές τεχνητής νοημοσύνης μετασχηματίζουν επίσης την αίσθηση της πραγματικότητας σε επιστημονικούς όρους.

    Η παραπάνω ανησυχία είναι δικαιολογημένη, δεδομένου του τεράστιου όγκου επιστημονικών άρθρων και ενημερωτικού υλικού που παράγεται σήμερα από μοντέλα γενετικής τεχνητής νοημοσύνης. Αυτό συμβαίνει ήδη στους τομείς της παραγωγής ακαδημαϊκής γνώσης, όπως στην περίπτωση των ψηφιακών απολιθωμάτων [digital fossils]. Ένα ψηφιακό απολίθωμα είναι ένα παλιό σφάλμα που διατηρείται σε αρχεία που χρησιμοποιούνται ως δεδομένα εκπαίδευσης τεχνητής νοημοσύνης και αναπαράγεται αυτόματα και απροσδόκητα σε νέα αποτελέσματα.

    Ωστόσο, τα ψηφιακά απολιθώματα είναι ένα ανεπιθύμητο υποπροϊόν των LLM. Πρέπει να τα θεωρούμε ως δείκτες μιας ευρύτερης επιστημολογικής διάβρωσης της δημόσιας γνώσης.

    Αυτή η γνωστική διάβρωση είναι βαθύτερη από τον δημόσιο διάλογο, καθώς τα ψηφιακά μέσα και οι εφαρμογές τεχνητής νοημοσύνης στοχεύουν στην προσωποποίηση και την ιδιωτική αλληλεπίδραση από τη σχεδίασή τους. Ο κυβερνοχώρος δίνει την ψευδή εντύπωση ενός ψηφιακού δημόσιου χώρου, ενώ στην πραγματικότητα είναι περισσότερο ένα δίκτυο αλληλοσυνδεόμενων εικονικών ιδιωτικών χώρων. Κάθε χρήστης επικοινωνεί με τη μορφή τηλεπαρουσίας μέσω ψηφιακών προσωπικοτήτων, από τον δικό του ιδιωτικό χρόνο και χώρο, ακόμα και όταν βρίσκεται σε δημόσιο χώρο. Αν προσθέσετε chatbots τεχνητής νοημοσύνης στην άλλη πλευρά της τηλεπικοινωνίας, κάθε χρήστης μπορεί να παγιδευτεί σε ένα δίχτυ αυτοαναφορικού ψευδοδιαλόγου. Σε αυτό το σημείο, τα παραδοσιακά διαπροσωπικά δίκτυα επικοινωνίας καταρρέουν σε αδιέξοδους επαναλαμβανόμενους μονολόγους μεταξύ υποκειμενικοτήτων και μηχανών.

    Ως αποτέλεσμα, ο κατακερματισμός της κοινής αντίληψης της πραγματικότητας μπορεί να οδηγήσει στην κατάρρευση της συνοχής των κοινωνικών φανταστικών σημασιών και των κοινών αξιών. Η συνεχής ροή ανεξέλεγκτων πληροφοριών οδηγεί στη θόλωση της διάκρισης μεταξύ πραγματικότητας και μυθοπλασίας.

    Αυτό δημιουργεί έναν ιδεολογικό φαύλο κύκλο παρεξηγήσεων.

    Το αποτέλεσμα αυτού θα γίνει αισθητό κοινωνικά ως συρρίκνωση του δημόσιου χώρου και χρόνου και ως εξάπλωση θεωριών συνωμοσίας και άλλων περιθωριακών αφηγήσεων. Αυτό δεν είναι ένα φαντασιακό σενάριο, αλλά ένας πραγματικός κίνδυνος, που τονίζεται από την GRR2026 με έμφαση στις εκλογικές συνέπειες:

    «Οι πρόσφατες εκλογές στις Ηνωμένες Πολιτείες, την Ιρλανδία, τις Κάτω Χώρες, το Πακιστάν, την Ιαπωνία, την Ινδία και την Αργεντινή είχαν να αντιμετωπίσουν τέτοιου είδους πλαστά περιεχόμενα στα μέσα κοινωνικής δικτύωσης, τα οποία απεικόνιζαν φανταστικά γεγονότα ή δυσφημούσαν πολιτικούς υποψηφίους, θολώνοντας τη γραμμή μεταξύ πραγματικότητας και μυθοπλασίας. Καθώς η τεχνητή νοημοσύνη χρησιμοποιείται για να κάνει τέτοιο περιεχόμενο πιο εξατομικευμένο και πειστικό, υπάρχει κίνδυνος μεγαλύτερης επίδρασης στις εκλογές. Για παράδειγμα, έρευνα έχει διαπιστώσει ότι το 87% των ανθρώπων στο Ηνωμένο Βασίλειο ανησυχούν για το ενδεχόμενο τα deepfakes να επηρεάσουν τα αποτελέσματα των εκλογών. Ωστόσο, ενώ η ευαισθητοποίηση είναι υψηλή, πολλοί δεν έχουν εμπιστοσύνη στις ικανότητές τους να αναγνωρίσουν πότε το περιεχόμενο είναι παραποιημένο».

    Ωστόσο, υπάρχουν ακόμη ευρύτεροι κίνδυνοι που σχετίζονται με τη γνωστική διάβρωση, όπως παραδέχεται η GRR2026:

    «Σε ένα ακραίο σενάριο, ο έλεγχος πολλών πτυχών της κοινωνίας θα μπορούσε να παραχωρηθεί στην τεχνητή νοημοσύνη.» – GRR2026

    Αυτός είναι ο εφιάλτης της αλγοριθμικής διακυβέρνησης από την άποψη του τεχνοκρατικού απολυταρχισμού, αλλά και το φαντασιακό πρόταγμα δισεκατομμυριούχων όπως ο Elon Musk και ο Peter Thiel, που περιγράφεται σε μια επίσημη πολιτική αναφορά, όπως η GRR. Ωστόσο, δεν είναι το χειρότερο σενάριο που περιγράφει η Έκθεση. Η τρίτη σειρά κινδύνων αφορά την ενσωμάτωση του βιομηχανικού-στρατιωτικού συμπλέγματος στην τεχνοσφαίρα της τεχνητής νοημοσύνης:

    «Τρίτον, με την εξάρτηση των στρατών από τα συστήματα τεχνητής νοημοσύνης να συνεχίζει να αυξάνεται, θα αυξηθεί και η πιθανότητα κακής χρήσης ή λαθών, θέτοντας σε άμεσο κίνδυνο ανθρώπινες ζωές.» – GRR2026.

    Δεν χρειάζεται να σχολιάσουμε περαιτέρω ή να αναλύσουμε αυτή τη ζοφερή προοπτική για το μέλλον, χωρίς να διακινδυνεύσουμε να βυθιστούμε σε μια τεχνοφοβική δυστοπία. Ωστόσο, η τεχνοφοβία, για άλλη μια φορά, φαίνεται λογική, όταν παρατηρούμε το συμπέρασμα του WEF σχετικά με τους πιθανούς κινδύνους της τεχνητής νοημοσύνης για το 2026:

    «Αυτό που διακρίνει την αναστάτωση που προκαλεί η τεχνητή νοημοσύνη από προηγούμενες τεχνολογικές μεταβάσεις είναι η πιθανότητα αλυσιδωτών βλαβών σε διασυνδεδεμένους τομείς. Η μετατόπιση της εργασίας έχει ευρείες επιπτώσεις, σε νοικοκυριά, κοινότητες και πολιτικά συστήματα. Η έλλειψη οικονομικών ευκαιριών ή η ανεργία (που κατατάσσεται στην 14η θέση στην κατάταξη των 10 ετών) μπορεί να οδηγήσει σε εξτρεμισμό. Η δυσπιστία προς τους θεσμούς συνδέεται με την παραπληροφόρηση και την αποπληροφόρηση, ενώ η επιτήρηση ενισχύει τις αυταρχικές αντιδράσεις στην αστάθεια που δημιουργεί η τεχνητή νοημοσύνη. Μόλις δημιουργηθούν, αυτοί οι κύκλοι ενδέχεται να ενισχύονται αμοιβαία». – GRR2026

    Αυτό που περιγράφει το WEF είναι αυτό που έχω ονομάσει «ψηφιακή βαρβαρότητα». Είναι αυτό το μόνο πιθανό μέλλον;

    Η GRR2026 καταλήγει ενθαρρύνοντας τις κυβερνήσεις των κρατών να συντονιστούν σε αυστηρά μέτρα και κανονισμούς, προειδοποιώντας ότι η τεχνητή νοημοσύνη πρέπει να θεωρείται εξίσου μεγάλη απειλή με τα πυρηνικά όπλα και τα βιοχημικά όπλα:

    «Απαιτείται συντονισμός σε θέματα ελάχιστων προδιαγραφών ασφάλειας, διαφάνειας και ηθικής ανάπτυξης, ιδίως για στρατιωτικά, βιομετρικά και μεγάλης κλίμακας συστήματα λήψης αποφάσεων, ο οποίος όμως απαιτεί συνεργασία παρόμοια με εκείνη που απαιτείται για την προστασία από πυρηνικά ή βιολογικά όπλα.» – GRR: 66

    Αυτή η ασαφής, κατηγορηματική υπόδειξη κάνει τον αναγνώστη να αναρωτιέται αν οι συγγραφείς διάβασαν τις προηγούμενες σελίδες του εγγράφου, όπου η έλλειψη τέτοιου συντονισμού αναφέρεται ως η αιτία του προβλήματος.

    Η φιλοσοφία του δημοκρατικού τεχνοσκεπτικισμού

    Αν και η υποδομή του είναι φυσική, ο κυβερνοχώρος είναι ένα πεδίο διαπροσωπικής επικοινωνίας όπου τα ανθρώπινα υποκείμενα είναι οι πραγματικοί κόμβοι της δημιουργίας νοήματος. Το όριο μεταξύ του ψηφιακού και του πραγματικού είναι μια «πορώδης μεμβράνη», που σημαίνει ότι οι ψηφιακές ενέργειες έχουν άμεσες κοινωνικο- ιστορικές συνέπειες. Αναγνωρίζοντας την «οντολογική δυαδικότητα» της ψηφιακής σφαίρας — όπου τα μοντέλα είναι επικοινωνιακές πρακτικές — μπορούμε να γεφυρώσουμε το χάσμα μεταξύ κώδικα και πρακτικής για να οικοδομήσουμε αυτόνομες θεσμούς.

    Ο κυρίαρχος λόγος για την τεχνητή νοημοσύνη ταλαντεύεται μεταξύ δύο υπερβολικών τάσεων: της θεσμοθετημένης τεχνοφιλίας και της διάσπαρτης τεχνοφοβίας οι οποίες μοιράζονται το κοινό έδαφος της τεχνολογικής μοιρολατρίας.
    Και οι δύο τάσεις συσκοτίζουν το γεγονός ότι η ΤΝ είναι ένας στατιστικός μηχανισμός, που στερείται εσωτερικότητας, προθετικότητας ή αυτονομίας. Ο δημοκρατικός τεχνοσκεπτικισμός προσφέρει μια τρίτη οδό. Απορρίπτει τόσο τις ουτοπικές όσο και τις δυστοπικές φαντασιώσεις και τοποθετεί την τεχνητή νοημοσύνη μέσα στις δομές εξουσίας, τους οικολογικούς περιορισμούς και τις φαντασιακές σημασίες της σύγχρονης κοινωνίας.

    Βασισμένος στον ψηφιακό ανθρωπισμό, ο τεχνοσκεπτικισμός επιβεβαιώνει την προτεραιότητα της ανθρώπινης αυτονομίας και την αναγκαιότητα της δημοκρατικής εποπτείας.

    Τα ψηφιακά κοινά χρησιμεύουν ως «πρακτικό παράδειγμα» για την επανάκτηση του ψηφιακού. Υλοποιούν αξίες που αντιτίθενται στις καπιταλιστικές νόρμες, όπως η αμοιβαιότητα, η ισότητα, η αλληλεγγύη και η αυτοδιαχείριση. Στα ψηφιακά κοινά, η ανταλλαγή δεν είναι χρήμα, η εργασία δεν εκμεταλλεύεται και η εμπειρία δεν περιορίζεται σε σημεία δεδομένων. Με τον όρο «πρακτικό παράδειγμα» εννοώ, σε αντίθεση με τα θεωρητικά παραδείγματα, ένα μοντέλο που μπορεί να εφαρμοστεί πρακτικά, δημιουργώντας έτσι ένα δίκτυο ανθρώπινων δραστηριοτήτων προς την επίτευξη κοινών στόχων.

    Αυτή η γέφυρα μεταξύ κώδικα και πρακτικής είναι δυνατή χάρη στην οντολογική δυαδικότητα της ψηφιακής σφαίρας, όπου τα μοντέλα είναι επικοινωνιακές πρακτικές και όχι απλώς αφαιρέσεις. Ως τέτοιο «πρακτικό παράδειγμα», μπορεί να αναπτυχθεί περαιτέρω σε επικοινωνιακή μορφή κοινωνικών θεσμών κοινωνικής ελευθερίας, δικαιοσύνης, κοινωνικής αυτονομίας, ανακλητότητας, ισότητας, συμμετοχικότητας, αυτοδιοίκησης και κοσμο-τοπικισμού, τόσο στη σφαίρα του κοινού σχεδιασμού και της παραγωγής, όσο και στη σφαίρα του πολιτιστικού διαλόγου και της συν- δημιουργίας. Αυτό συνεπάγεται την από κοινού αναδημιουργία του ελεύθερου δημόσιου χώρου και χρόνου, τόσο στον ψηφιακό όσο και στον πραγματικό κόσμο της ανθρώπινης συνύπαρξης.

    Στα ιεραρχικά συστήματα, οι πληροφορίες εξάγονται από κάτω και οι εντολές εκδίδονται από πάνω. Τα ψηφιακά κοινά επιτρέπουν την «αντιστροφή της ροής», όπου οι πολιτικές αποφάσεις παράγονται από την κοινωνική βάση, με βάση πληροφορίες από διαφανείς, δευτεροβάθμιους θεσμούς επεξεργασίας δεδομένων. Αυτό δημιουργεί έναν αυτόνομο ψηφιακό δημόσιο χώρο και χρόνο που υποστηρίζει άμεσα δημοκρατικά οριζόντια δίκτυα.
    Τα σύγχρονα δημοκρατικά κοινωνικά κινήματα, που χαρακτηρίζονται από τις διαρκείς συλλογικές διεκδικήσεις με οριζόντιες ισότιμες δικτυώσεις παρέχουν το φυσικό αντίστοιχο των ψηφιακών κοινών. Σε αντίθεση με τα αυταρχικά κινήματα (π.χ. «Τραμπισμός») που χρησιμοποιούν τα ψηφιακά δίκτυα για προπαγάνδα από πάνω προς τα κάτω, τα δημοκρατικά κινήματα δίνουν έμφαση στις οριζόντιές δικτυώσεις, την άμεση δημοκρατία και την άρνηση της ιεραρχικής ηγεσίας.

    Μπορούμε να φανταστούμε τον τεχνοσκεπτικισμό σαν ένα θεωρητικό τηλεσκόπιο – μας βοηθά να ανακαλύψουμε πιθανές διαδρομές του προτάγματος της αυτονομίας στον ορίζοντα των μελλοντικών προσδοκιών. Ο ψηφιακός ανθρωπισμός είναι σαν μια πολιτική πυξίδα – μας βοηθά να πλοηγηθούμε προς ένα κοινό δημοκρατικό μέλλον. Ο ψηφιακός ανθρωπισμός βασίζεται στις ανησυχίες που εγείρει ο τεχνοσκεπτικισμός, προσφέροντας λύσεις και αρχές σχεδιασμού. Ενσωματώνει τις αρχές της άμεσης δημοκρατίας, των κοινών και της κοινωνικής οικολογίας στην τεχνολογική κριτική.

    Η χρονικότητα και η κοινωνικότητα είναι οι βασικές προϋποθέσεις για αυτές τις πράξεις επανάκτησης του ψηφιακού. Σε αυτό το πλαίσιο, τα άτομα που επιτρέπουν στον προσωπικό τους χρόνο να αποικιστεί, να απορροφηθεί και να ενσωματωθεί στους κυρίαρχους ρυθμούς των κοινωνικών δικτύων, της τηλεπαρουσίας και του ψηφιακού μάρκετινγκ, συμβάλλουν ενεργά στην επέκταση των δικτύων καπιταλιστικού μάρκετινγκ. Όπως παρατήρησα προηγουμένως, στον ψηφιακό κόσμο, τα μοντέλα είναι πρακτικές και οι καπιταλιστικοί όροι της ψηφιακής αναπαράστασης είναι όροι ατομικής εμπορευματοποίησης. Ως εκ τούτου, δημιουργούν καταναλωτικές κοινότητες, οι οποίες λειτουργούν ως επιταχυντές της κυκλικής, επαναλαμβανόμενης χρονικότητας της εκμετάλλευσης των δεδομένων και της δημόσιας απόσπασης της προσοχής.
    Αυτός ο κύκλος τροφοδοτεί τον πολλαπλασιασμό των κοινωνικών κρίσεων μέσω της εξάπλωσης του ατομικιστικού καταναλωτισμού, της πολιτικής απάθειας ή του φανατισμού, της διάδοσης διαφημιστικών στρατηγικών και της πραγμοποίησης της προσωπικής εμπειρίας. Ο χρόνος και η κοινότητα με τη μορφή της προσωπικής δέσμευσης και των συλλογικών εμπειριών είναι τα νέα εμπορεύματα, κατακερματισμένα υπό την πλασματική αρχή της ψηφιακής ατομικότητας.
    Αντίθετα, η πρακτική της ψηφιακής επανάκτησης συνίσταται στη δημιουργία μιας ελεύθερης κοινής χρονικότητας μέσω των εργαλείων που παρέχουν τα ψηφιακά κοινά σε ανοιχτές δημοκρατικές δικτυώσεις.
    Η τρέχουσα κρίση της τεχνητής νοημοσύνης και του καπιταλισμού της επιτήρησης παρουσιάζει μια επιλογή μεταξύ δύο προοπτικών: η μία είναι η επέκταση της καθεστωτικής ψηφιακής κυριαρχίας επί της κοινωνίας και το άλλο η συλλογική δημοκρατική επανακτήση του ψηφιακού. Ο δημοκρατικός τεχνοσκεπτικισμός στοχεύει σε ένα μετακαπιταλιστικό, οικολογικό και ανθρωπιστικό μέλλον, όπου η τεχνολογία χρησιμεύει για την ενίσχυση, και όχι την καταστολή, της δημοκρατικής αυτοκυβέρνησης.


    Βιβλιογραφία

    Benasayag, M.. The Tyranny of Algorithms. The impact of the digital world and its algorithms on human
    beings and society Europa Compass, (2021)

    Benedikt, M.. Cyberspace: First Steps The MIT Press, Boston (1991)

    Simondon, G. Incorporations Zone Books, New York (1992)

    Καστοριάδης, Κ.. Η Φαντασιακή Θέσμιση της Κοινωνίας, εκδ. Ράππα (1978)

    Phang, J. et al. Investigating Affective Use and Emotional Well-being on ChatGPT,
    https://cdn.openai.com/papers/15987609-5f71-433c-9972-e91131f399a1/openai-affective-use
    study.pdf. retrieved November 28 2025, 21.05

    Polanyi, K.. The Great Transformation: The Political and Economic Origins of Our Time Farrar & Rinehart,
    New York (1944)

    Wylie, B. : Zuboff’s cycle of dispossession (2020) Retrieved on 4/4/2024 from:
    https://biancawylie.medium.com/zuboffs-cycle-ofdispossession/

    Σχισμένος, A. Τεχνολογία και Βαρβαρότητα: Κριτική της Τεχνητής Νοημοσύνης, Athens School (2024)

    Winner Bull. Sci. Tech. Soc . , Vol. 4, pp. Printed in the USA. 2070-4676/84 Pergamon Press, Ltd.582-596,
    1984

    Zuboff, Sh.. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of
    Power PublicAffairs, New York (2019)

    World Economic Forum: Global Risks Report 2026

    The post Μπροστά στην ψηφιακή βαρβαρότητα: Αξιολογώντας την Έκθεση Παγκόσμιων Κινδύνων 2026 του Παγκόσμιου Οικονομικού Φόρουμ first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/02/19/psifiaki-varvarotita-axiologontas-tin-global-risks-report-2026/feed/ 0 22161
    The path of digital barbarism? Remembering UNESCO’s Recommendation on the Ethics of Artificial Intelligence, five years later. https://www.aftoleksi.gr/2026/02/13/unesco-s-recommendation-on-the-ethics-of-artificial-intelligence-five-years-later/?utm_source=rss&utm_medium=rss&utm_campaign=unesco-s-recommendation-on-the-ethics-of-artificial-intelligence-five-years-later https://www.aftoleksi.gr/2026/02/13/unesco-s-recommendation-on-the-ethics-of-artificial-intelligence-five-years-later/#respond Fri, 13 Feb 2026 05:00:51 +0000 https://www.aftoleksi.gr/?p=22109 by Alexandros Schismenos This year will prove significant for Artificial Intelligence for many reasons. A political reason is the midterm congressional elections in the USA, which will determine, among other things, the future of federal and state regulations on AI applications and the conditions for financial speculation and investment in AI companies. The midterm results [...]

    The post The path of digital barbarism? Remembering UNESCO’s Recommendation on the Ethics of Artificial Intelligence, five years later. first appeared on Aυτολεξεί.

    ]]>
    by Alexandros Schismenos

    This year will prove significant for Artificial Intelligence for many reasons. A political reason is the midterm congressional elections in the USA, which will determine, among other things, the future of federal and state regulations on AI applications and the conditions for financial speculation and investment in AI companies. The midterm results may be the reason the AI financial bubble bursts, but that depends on the outcome and its potential shockwaves for US politics, the court that currently dominates the AI race.

    A secondary, symbolic reason is the fifth anniversary of UNESCO’s Recommendation on the ethics of AI, adopted by the organization’s 194 member states on November 23rd, 2021. How relevant is this document today, given our five-year experience with AI? And how influential has the official adoption of the Recommendation been in shaping AI’s current trajectory?

    Of course, these questions cannot be answered definitively given the accelerating pace of the race for AI dominance. However, a brief reflection on the state of the 2021 UNESCO goals in comparison with the empirical realities of early 2026 may help demonstrate why such questions are worth asking.

    To make the comparison clear, I will utilize the conceptual framework of my book “Artificial Intelligence and Barbarism” [Athens School, 2025] as a resource for understanding the “mythinformation” and political control mechanisms that underlie seemingly neutral technological advancements.

    I adopt the concept of “mythinformation” from Lagdon Winner, who coined the term in 1984 to describe the almost religious belief that the widespread adoption of computers and increased access to information will automatically lead to a better, more democratic world. I think the scope of the concept should be broadened to include the forty-year experience we have gained.

    In this historical context, mythinformation is the ideology that equates the expansion of digital information with the expansion of truth, freedom, and social progress. It is the belief that more data produces more knowledge, more connectivity produces more democracy, and more information access produces more autonomy. Moreover, mythinformation transforms technological infrastructures into cultural myths, concealing the power relations, biases, and economic interests embedded in digital systems, and preventing critical reflection on the limits of information-centric thinking.

    On that note, we should remember that the UNESCO General Conference’s adoption of the Recommendation was intended to establish global consensus on the ethical governance of AI, grounded in international law and focused on human dignity. It is an anthropocentric document that underscores the potential impact of AI:

    “Guided by the purposes and principles of the Charter of the United Nations”, it recognizes the multilevel risks of AI technology, “on societies, environment, ecosystems, and human lives, including the human mind, in part because of the new ways in which its use influences human thinking, interaction, and decision-making.”

    The Recommendation was designed as a framework for regulating policies to prevent AI’s catastrophic impact on the social and natural environments. Conceived as a proactive political and legal tool to address a multifaceted problem, the Recommendation defines AI systems by their capacity to mimic intelligent human behavior, including reasoning, learning, and planning.

    However, in the five years since, a lot has changed. The most direct challenge to UNESCO’s Recommendation comes from its member states themselves, whose governments have started the AI dominance race. The Atlantic described it in 2026 as a high-stakes, $500B+ competition primarily between the US and China, with Big Tech (Amazon, Alphabet, Meta, Microsoft) projected to spend over $650B on infrastructure. The Recommendation’s voluntary character guaranteed as much. The AI dominance race is a direct effect of systemic technophilia, a dominant socio-political force toward digital barbarism and the delegation of human autonomy to algorithmic governance, exemplified by the Presidency of Donald Trump and the ascension of Big Tech figures like Elon Musk to governmental power.

    Let’s look briefly at the policies of the Recommendation. The document designates eleven areas of policy action but I will just comment on some. [1]

    The first and the second policy areas, “ethical impact assessment” and “ethical governance and stewardship” will be discussed later.

    The third policy area, “data policy,” has already been compromised by Big Data, breaches of data privacy in LLM large-scale training, and the commodification of human intellectual property as raw material for Generative AI, exemplified by the case of Miyazaki’s Studio Ghibli, the data of which was sold by the Japanese government to OpenAI, thus igniting a global trend of Ghibli-like memes in 2025, despite the creator’s explicit objection to this.

    Policy area number four, “development and international cooperation,” seems like a joke in our era of the AI dominance race between China, the USA, Russia, and, lately, the EU. UNESCO’s Principle of Fairness and Non-discrimination, alongside Policy Area 4, emphasizes that the benefits of AI must be shared equitably, with particular attention to low- and middle-income countries (LMICs). However, the UNDP 2025 report, “The Next Great Divergence,” warns that AI is sparking a new era of inequality. [2]

    This informational inequality further deepens the power gap between the “Global North” and the “Global South”, reintroducing the exploitation structures of colonialism on another level, where private data becomes raw material for machine training, while human labor becomes devalued, and the local environment is devastated by mining and drilling.

    Microsoft’s AI diffusion report, “Global AI Adoption in 2025—A Widening Digital Divide,” concludes that AI adoption in the Global North is growing nearly twice as fast as in the Global South, widening the usage gap from 9.8% to 10.6% between late 2024 and 2025. The IMF further warns that growth impacts in advanced economies could be more than double those in low-income countries, effectively eroding the labor advantages that once underpinned convergence. [3]

    The most significant divergence between the 2021 UNESCO goals and the 2026 realities lies in Policy Area 5: Environment and Ecosystems, as expected.

    The Recommendation mandates that AI actors reduce carbon footprints and prevent the unsustainable exploitation of natural resources. However, empirical data from 2025 and 2026 show an environmental cost that is rapidly escalating beyond sustainable limits.

    The Cornell University study on the US data center boom provides a state-by-state look at the toll, projecting that by 2030, AI growth will add 24 to 44 million metric tons of CO2 to the atmosphere annually. The water use associated with cooling AI-focused data centers now exceeds global demand for bottled water, reaching an estimated 765 billion liters in 2025. [4]

    This contradicts UNESCO’s goal of “Environmental and Ecosystem Flourishing” as an existential necessity for humanity and poses a significant threat to both society and nature. This means that the current trajectory of AI power dynamics poses a dual threat, both environmental and cultural.

    The seventh policy area of UNESCO’s Recommendation focuses on culture and the values of diversity and inclusiveness, which are now being profoundly tested by the homogenization effects of large language models, as UNESCO itself warned recently.

    In 2025, UNESCO’s CULTAI expert group report for MONDIACULT 2025 identifies “algorithmic homogenization” and the “outpacing of governance” as core threats to cultural pluralism. Linguistic diversity is a primary point of friction. Currently, fewer than 5% of the world’s languages feed the datasets of frontier AI systems, meaning the vast majority of linguistic worldviews are excluded from the platforms that increasingly structure global knowledge. [3] It seems that AI apps act as aggressive Anglicization machines that threaten the very cultural diversity of humanity. We should add to that the exploitation of cultural work without consent or compensation, which also affects individual privacy and collective memory.

    The cultural impact of AI is not only felt across societies from the centers of power to the periphery, but also within society, from above to below.

    The UNESCO goals for education in 2021, as explained in the eighth policy area of the Recommendation, focus on enhancing pedagogical integrity and ensuring that AI empowers rather than replaces teachers. In 2025, an UNESCO report found that classrooms have become spaces for “AI experimentation,” frequently without independent evidence of educational effectiveness. [5]

    This poses a potential danger of individuals internalizing algorithmic norms. People begin to think, act, and perceive themselves through the logic of digital systems. Examples include optimizing one’s life like a dataset, measuring self-worth by metrics, and adopting algorithmic categories as personal identities. It is the psychological dimension of digital barbarism—the point where external systems become internal habits.

    Digital barbarism names the condition in which technologically advanced societies regress in their capacity for judgment, autonomy, and critical thought. It is not a return to chaos, but a new form of domination produced by algorithmic rationality itself.

    Of course, this is the opposite direction of the Recommendation’s proclaimed principles which are firmly grounded in digital humanism:

    “13. The inviolable and inherent dignity of every human constitutes the foundation for the universal, indivisible, inalienable, interdependent and interrelated system of fundamental rights and freedoms.”

    There seems to be an antithesis of values between UNESCO’s Recommendation and the actual objectives of the large companies that run AI applications, specifically LLMs. The necessary infrastructure to support LLMs relies on vast data centers and a capitalist business model that is extractive, centralized, resource-intensive, and oligarchic. On the social level, it introduces a new, aggressive form of financial exploitation of both communal and natural environments. On the political level, it promotes autocratic and oligarchic forms of governance that facilitate and reproduce capital flows toward the technocratic elites who provide AI. We see that these trends are dominating the politics of the Western world as we witness the devaluation not only of UNESCO’s adopted Recommendation but of the UN as such.

    Moreover, the Recommendation failed to curb or even limit the spread of mythinformation about the “messianic” properties of AI, which was promoted by those who would stand to benefit the most. CEOs of multibillion-dollar AI enterprises are seeking financial investment. In January 2025, Sam Altman of OpenAI claimed that “we are now confident we know how to build AGI.” This is a perfect example of mythinformation. Later that year, on August 7th, the release of GPT-5 was deemed a failure, proving that we are still nowhere near true AGI. On January 21st, 2026, Sir Demis Hassabis, CEO of Google DeepMind, admitted on a CNBC podcast that current LLMs are excellent at pattern recognition but fail to grasp causality.

    Nevertheless, the Recommendation seems to be challenged by the technological developments in AI as well. The transition from reactive Generative AI to agentic AI in late 2025, characterized by the development of autonomous systems based on LLMs that are capable of setting independent goals, executing multi-step plans, self-correcting, and revising their plans accordingly with no human supervision. These are proactive AI models that are goal-oriented and interact with their environment in a perceptive and active manner. They are designed to maximize autonomous functioning and limit human oversight. But as such, they are by design in opposition to UNESCO’s Recommendation on the necessity of human oversight:

    “35. Member states should ensure that it is always possible to attribute ethical and legal responsibility for any stage of the life cycle of AI systems, as well as in cases of remedy related to AI systems, to physical persons or to existing legal entities. Human oversight refers thus not only to individual human oversight, but to inclusive public oversight, as appropriate.”

    While the Recommendation covers stages from research to disassembly, the non-linear nature of 2026 AI development, in which open-weight models like DeepSeek-R1 are fine-tuned across borders and deployed as decentralized agents, complicates the attribution of ethical and legal responsibility. Agentic AI marks a significant step in the process Luciano Floridi has called the decoupling of Agency and Intelligence, a trend reinforced by the decoupling of Agency and Responsibility.

    As AI agents increasingly operate in “blended teams” alongside humans, the Recommendation’s insistence on “final human determination” for life-and-death decisions faces technical friction. By 2026, there are projections that 40% of enterprise applications will embed AI agents, up from less than 5% in 2025, suggesting that human oversight is being architecturally refactored into “supervised autonomy” rather than direct intervention. [6]

    This raises the prospect of replacing democratic deliberation with algorithmic governance. Algorithmic governance is the delegation of social, economic, and political decisions to automated systems. It includes predictive policing, algorithmic credit scoring, automated hiring, content moderation, and behavioral nudging. This form of governance is characterized by opacity, power asymmetry, and the displacement of public deliberation by technical procedures.

    But before we become alarmists or succumb to the popular trend of adversarial technophobia, we should maintain our technoskeptic stance, focusing on the realities of our time rather than dystopian projections.

    Technoskepticism is a critical stance toward technology that rejects both naïve technophilia and reactionary technophobia. It insists that technology is never neutral, that digital systems embody political and economic interests and that philosophical critique is necessary for democratic control of innovation.

    We should always keep in mind that behind AI technologies are old-fashioned power dynamics, which means the social-historical field of interaction, where collective activity can change the tides. There is an opposition of values and principles between UNESCO’s Recommendation and global politics, but UNESCO is far from being an anti-systemic organization. It is part of the same global governance institutions that, five years ago, officially adopted this Recommendation along with its values and principles and which have now turned to technocratic autocracy.

    Is this sign of state hypocrisy a balance of power that can be reversed?

    Our critique advocates for a democratic digital humanism that entails a political critique of techno-capitalist networks, democratization of control over digital information flows, social regulation of AI technology, deepening of the radical political project of social autonomy, recreation of free public time and space, and a reevaluation of the individual as a citizen rather than a user.


    Notes:

    [1] UNESCO, Recommendation on the ethics of AI, adopted on November 23rd 2021.

    [2] https://www.undp.org/asia-pacific/press-releases/ai-risks-sparking-new-era-divergence-development-gaps-between-countries-widen-undp-report-finds

    [3] https://www.csis.org/analysis/divide-delivery-how-ai-can-serve-global-south

    [4] https://news.cornell.edu/stories/2025/11/roadmap-shows-environmental-impact-ai-data-center-boom

    [5] https://www.unesco.org/en/articles/ai-and-futures-education

    [6] https://machinelearningmastery.com/7-agentic-ai-trends-to-watch-in-2026/

    The post The path of digital barbarism? Remembering UNESCO’s Recommendation on the Ethics of Artificial Intelligence, five years later. first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/02/13/unesco-s-recommendation-on-the-ethics-of-artificial-intelligence-five-years-later/feed/ 0 22109
    A Descent into Digital Barbarism: Reviewing the World Economic Forum’s Global Risks Report 2026 https://www.aftoleksi.gr/2026/01/25/wef-global-risks-report-2026/?utm_source=rss&utm_medium=rss&utm_campaign=wef-global-risks-report-2026 https://www.aftoleksi.gr/2026/01/25/wef-global-risks-report-2026/#respond Sun, 25 Jan 2026 19:37:26 +0000 https://www.aftoleksi.gr/?p=21971 by Alexandros Schismenos   On January 14th, 2026, the World Economic Forum issued its Global Risks Report, a comprehensive official analysis of the potential risks facing the world in 2026. This influential document was produced exclusively by the World Economic Forum ahead of the WEF Annual Meeting 2026, convened under the theme “Spirit of Dialogue,” and [...]

    The post A Descent into Digital Barbarism: Reviewing the World Economic Forum’s Global Risks Report 2026 first appeared on Aυτολεξεί.

    ]]>
    by Alexandros Schismenos  

    On January 14th, 2026, the World Economic Forum issued its Global Risks Report, a comprehensive official analysis of the potential risks facing the world in 2026. This influential document was produced exclusively by the World Economic Forum ahead of the WEF Annual Meeting 2026, convened under the theme “Spirit of Dialogue,” and held from January 19 to 23 in Davos, Switzerland. According to its editors:

    “The Global Risks Report 2026, the 21st edition of this annual report, marks the second half of a turbulent decade. The report analyses global risks through three timeframes to support decision-makers in balancing current crises and longer-term priorities.” 

    Among the numerous potential dangers lurking in the future, the document places special emphasis on the expansion of Artificial Intelligence, and for good reasons. The findings of the GRR 2026 are indications of the rise of digital barbarism, which I have defined, in the context of my analysis of Digital Reason, as the systemic erosion of social meaning and temporal autonomy caused by the dominance of algorithmic rationality. It manifests when computational systems reorganize the conditions under which individuals and collectives interpret, act, and imagine.

    To summarize the argument of my recent book “Artificial Intelligence and Barbarism: A Critique of Digital Reason”, AI must be understood not as an autonomous agent but as an expression of the dominant imaginary significations of contemporary society. The digital revolution is not merely technical; it is an ontological transformation that reshapes meaning, subjectivity, and social time.

    But this has reached new heights after the rapid digital transformation during the pandemic, the public release of ChatGPT in November 2022, and the fast and vast proliferation of AI applications across all domains of social life.

    The World Economic Forum’s GRR 2026 acknowledges that:

    “AI has shifted from a frontier technology to a systemic force shaping economies, societies, and security. The global market size for AI is projected to rise from an estimated $280 billion in 2024 to $3.5 trillion by 2033.” – GRR2026: 60.

    It seems like we have entered a new phase of the digital ontological revolution, Web 4.0, the “intelligent” or “symbiotic” web, when AI comes onto the scene as an actor imitating and regenerating human communication. AI systems have permeated communication, labor, education, and governance, while public discourse has polarized into technophilic celebrations of progress and technophobic fears of collapse.

    Both trends rely on hyperbolic narratives that obscure the deeper social‑historical dynamics at work. They emerge from an imaginary dominated by instrumental rationality, efficiency, optimization, and quantification. It is the capitalist social imaginary stemming from the Cartesian imperative to “render ourselves the lords and possessors of nature.” [Descartes 1635]

    Uncritical technophilia is a core imaginary signification of capitalist modernity and, as such, was shared by some of the most critical adversaries of industrial capitalism, like Saint-Simon, Fourier, and, most importantly, Karl Marx. Castoriadis has pointed out that one of the conservative elements of Marxian thought is the acceptance of technology as a force of progress, and the tendency to “reduce production, human activity mediated by instruments and objects, labor, to ‘productive forces’, that is to say, ultimately, to technique.” [The Imaginary Institution of Society, MIT Press, 1987: 19]

    The digital revolution is thus a transformation of the symbolic field through which societies interpret themselves. AI becomes the privileged expression of this imaginary: a mechanism for prediction, control, and the automation of judgment, as the spearhead of capitalism’s drive toward the goal of total mastery of nature, both inanimate and human, by means of digitization. Digital barbarism cannot be understood without reference to these imaginary significations.

    The horizon of digital barbarism is not chaos but hyper‑order: the submission of social life to algorithmic governance based on automated parameters detached from human meaning.

    The rise of mythinformation  

    The GRR 2026 is an official statement that underscores the dangers of digital barbarism and justifies our caution, beginning from the Introduction:

    “Misinformation and disinformation and Cyber insecurity ranked #2 and #6, respectively, on the two-year outlook. Adverse outcomes of AI are the risk with the largest rise in ranking over time, moving from #30 on the two-year outlook to #5 on the 10-year outlook. “ – GRR 2026

    Misinformation and disinformation on the cyberspace are the results of what Langdon Winner called “mythinformation” namely, “the almost religious conviction that a widespread adoption of computers and communications systems and broad access to electronic information will automatically produce a better world for humanity.” (Winner Bull. Sci. Tech. Soc . , Vol. 4, pp. Printed in the USA. 2070-4676/84 Pergamon Press, Ltd.582-596, 1984.)

    The most direct and obvious effect of mythinformation is economic and directly linked with the surge of financial investments in AI companies.

    Modern digital markets represent what Shoshana Zuboff calls “Surveillance Capitalism”—a new economic order that claims human experience as “free raw material” for commercial practices of extraction and behavioral modification. This represents a “coup from above” and a “digital dispossession” of sovereignty.

    Drawing on Karl Polanyi’s “commodity fictions” (labor as life, nature as real estate, money as exchange), we can identify a fourth fiction: personal experience and individual behavior as market values. Through “individualization algorithms,” private companies reify personal experience, reducing individuals to measurable behavioral patterns for the purpose of attention-baiting and time consumption.

    AI contributes to this dispossession through what Luciano Floridi calls “enveloping”. Rather than machines being made to inhabit the human world, social relations are transformed to accommodate AI applications. The danger is not “thinking machines” dominating humans, but the domination of society by political and economic mechanisms.

    In 2025, stock markets were driven by political decisions regarding the financing of AI companies worldwide.

    In the first week of his presidency, following his inauguration on January 20, 2025, D.J. Trump announced a $500 billion package for the development of digital technology.

    A week later, two Chinese companies [DeepSeek and ByteDance, the owner of TikTok] presented TN models [LLMs] that operate at 50 times lower training costs.

    On February 18, 2025, Elon Musk presented the latest Generative Artificial Intelligence model from his company xAI, Grok 3, which includes a chatbot, two reasoning models, and a digital research assistant, falsely claiming that it mimics “human reasoning.” It is powered by the xAI Colossus supercomputer, with 200,000 graphics processing units [GPUs], and has been pre-trained for 1,000,000 GPU hours. It is located in Memphis, and the system consumes 18,927,058 liters of water per day for cooling. It was built in less than eight months and includes large energy facilities for the power-hungry digital system.

    During the summer, President Trump decreed that AI companies could fund their own energy facilities using federal resources.

    With a presidential decree on December 12, 2025, Trump suspended the States’ right to enact regulatory laws and legislate restrictions on artificial intelligence companies.

    Among others, the above political – and not scientific – events helped the investments in AI companies skyrocket:

    “Total spending on AI worldwide is estimated at $1.5 trillion in 2025 and is projected to rise to $2 trillion in 2026, with the main segments being generative AI (genAI) smartphones, AI-optimized servers, AI services, AI application software, AI processing semiconductors and AI infrastructure software.68 The data centre capex of the top eight US hyperscalers (very large cloud services providers) alone amounted to $258 billion in 2024 and is projected to more than double to $525 billion in 2032.6” – GRR2026: 44

    However, the promises for AGI failed to materialize, and fears for a potential economic bubble started manifesting.

    As the GRR2026 points out, this surge in capital investment poses a significant danger:

    “There is currently widespread concern around elevated equity prices for the largest technology companies, and 2025 saw periods of frenzied investor interest not only in artificial intelligence (AI)- related stocks, but also in sectors such as nuclear, quantum or rare earths. A sharp run-up in the prices of precious metals has raised concerns of bubble-like activity there, too. Some of these prices have since stabilized or corrected, but concerns about overvalued markets remain. Should the predictions of an asset bubble burst turn out to be true, the potential impacts can be significant. Global institutional and retail investors are heavily invested in US stock markets by historical standards, so the resulting potential impacts of a crash could be severe for the global economy;63 85% of global chief economists in September 2025 believe a financial shock would have wide-ranging systemic effects.” – GRR2026 

    The WEF verifies the picture of a vicious financial circle, as Dr.Alex Pazaitis described it in an online discussion: the revenues of companies that develop AI models for the market are meager compared to their ever-increasing commitments to spending and investing in more computing power. So their funding continues with money they receive from “investments” from companies such as NVidia, from which they then purchase processors. NVidia simultaneously “invests” capital in companies that provide cloud computing infrastructure, such as Oracle, which then purchases processors from NVidia to offer services to companies such as OpenAI to host their model data. And the cycle of self-referential investments goes on and on.

    We may call this the economic vicious cycle of self-referential investment.

    This vicious cycle of self-referential investment can go on for a while until the bubble bursts due to the accumulation of political capital by AI companies owned by influential political actors like Elon Musk. This only expands the vicious circle to include other areas of communication, space travel and transportation and widens the area of influence of digital mythinformation.

    The concentration of political and financial capital, computational power, user data, and digital technology in a handful of companies creates a steep hierarchical pyramid of informational power that widens the gap of inequality on both a social and international scale. The GRR2026 notes the uneven distribution of power regarding AI:

    “Access to AI infrastructure as well as to electricity, internet access, and data storage will amplify economic power shifts between countries over the next decade as AI’s productivity benefits bypass some populations entirely- albeit protecting them from some of the risks. For example, AI adoption in North America (27% of the working-age population) is triple that in Sub-Saharan Africa (9%).

    Only a handful of AI data centres are in developing regions, with the United States, Europe and Eastern Asia dominating capacity. Within countries, the gap between AI-integrated geographies and excluded peripheries may also drive localized power shifts, create internal migration pressures and destabilize national cohesion.” – GRR2026

    This marks a significant widening of the post-colonial power gap between Western/Eastern techno-capitalist countries and the impoverished countries of the global South. But it also marks a widening of the internal gap of equality between governing elites and working classes within each country.

    The GRR2026 devotes a whole section [2.7] to discussing three sets of risks connected to AI applications:

    “First, the widely cited concerns around the impact on labour markets could lead to deepening societal polarization if unemployment rises and workers struggle to adapt to new tasks and roles. In such a scenario, both higher productivity and higher unemployment could unfold simultaneously.”

    Mark this sentence: higher productivity with higher unemployment. This is a direct consequence of the expansion of automation across all social functions that can be reduced to algorithmic functions. It also seems in alignment with the core imaginary signification of the neoliberalist dogma of capitalism that emphasizes profit over production, while also being the realization of the imaginary signification of technocracy, the diminishing of the human factor in production.

    Of course, the outcomes are societal disruption, mass unemployment, mass poverty, the sudden devaluation of the significance of labor, and the rupture of social bonds.

    We may call this the political vicious circle of systemic inequality on a domestic and international level.

    Even so, we should widen the definition of systemic inequality to include ecological devastation, which may affect all, but not all have the means to mitigate the catastrophe on public health and living conditions. GRR2026 notes the environmental risks of AI:

    “There are second-degree physiological health impacts as well, deriving from the environmental impacts of generative AI models. These can consume up to 4,600 times more energy than traditional software.162 AI-related infrastructure can result in degraded air quality and pollution from manufacturing, electricity generation and e-waste disposal. In the United States alone, this could impose a public-health burden of over $20 billion annually by 2028” – GRR2026: 54

    Such are the ramifications of instituted mythinformation around the commercialized future projections of AI on the external social domains of economy, ecology, and politics. But these effects are reflected and doubled in the internal private domains of intersubjective communication and reality perception.

    The risks of mythinformation loom even greater in cyberspace than in stock markets. Cyberspace, as a new sphere of being, represents a form of alterity (otherness) where the subjective and objective merge in a virtual subjective objectivity. This suggests that the Internet doesn’t just mediate our existing communications; it creates an intermediate digital layer with unique epistemological attributes and possibilities, where telepresence presupposes physical absence and communication is reduced to syntax. These underline the epistemic risks of AI.

    Second, as more tasks become undertaken by AI and previously applied human skills begin to atrophy, it is unclear if the path forward will be a golden age for creativity, leisure and learning – or, conversely, a drift into purposelessness, apathy and societal decay.” – GRR2026

    Large Language Models introduce a new epistemic instability. Their outputs are plausible but unreliable, often exaggerating or distorting conclusions. As they infiltrate education, research, and policy, they threaten to automate epistemic error at scale.

    If AI is a form of immature intelligence, lacking understanding and accountability, entrusting it with critical public functions becomes dangerous. The risk behind mythinformation is the delegation of judgment to algorithmic systems.

    In the age of AI mythinformation spreads rapidly through attention-optimized platforms, displacing reasoned discourse and eroding the public field of communication on a global scale via digital social media. The increasing reliance on AI apps for the production of common knowledge has begun to threaten the public’s common sense of reality.

    “Increasing reliance on both social media and AI tools enhances the impact of algorithmic bias, which shapes what information users see online and reinforces exposure of individuals to information aligned with their views. This can create widely divergent perspectives on real-world events and developments. The impacts are starting to run even deeper. How real-world events are interpreted online combined with the growing circulation of violent content on social media may be leading citizens to become more emotionally and cognitively detached and numbed to human tragedies.” – GRR2026

    We must stress that, given the global public’s reliance on mythinformation, the common sense around reality is easily manipulated by means of propaganda, even before AI. Nevertheless, we must observe that the penetration of the digital field into the social imaginary is so deep that AI apps are also transforming the sense of reality in scientific terms.

    The above concern is justified given the sheer volume of scientific papers and informative material currently produced by Generative AI models. This is already happening in the fields of academic knowledge production, as in the case of digital fossils. A digital fossil is an old error preserved in files used as AI training data and unexpectedly reproduced automatically in new results.

    However, digital fossils are an unwanted byproduct of LLMs. We should consider them as indicators of a broader epistemic erosion of public knowledge.

    This epistemic erosion goes deeper than public discourse, since digital media and AI applications aim at personification and private interaction by design. Cyberspace gives the false impression of a digital public space, while it is more of a network of interconnected virtual private spaces. Every user communicates in the mode of telepresence via digital personas, from their own private time and space, even when they are in public. If you add AI chatbots to the other side of telecommunication, every user can be caught in a web of self-referential pseudo-dialogue. At that point, traditional intersubjective communication networks collapse into dead-end repetitive monologues between subjectivities and machines.

    “A society where large segments, especially young people, subsist on UBI could experience a crisis of meaning.” – GRR2026: 63

    As a result, a fragmentation of the public common sense of reality may lead to the collapse of the coherence of social imaginary significations and common values. A constant flow of unchecked information leads to the blurring of the distinction between fact and fiction.

    This forms an ideological vicious circle of misunderstanding. The effect of this would be felt socially as the shrinkage of public space and time and the proliferation of conspiracy theories and other fringe narratives. This is not a fictional scenario, but a real-life danger, illuminated by the GRR2026 with a focus on electoral consequences:

    “Recent elections in the United States, Ireland, the Netherlands, Pakistan, Japan, India, and Argentina have all had to contend with such fabricated content on social media, depicting fictional events or discrediting political candidates, blurring the line between fact and fiction. As AI is used to make such content more personalized and persuasive, there is a risk of greater impact on elections. For example, research has found that 87% of people in the United Kingdom are concerned about deepfakes affecting election results. But while awareness is high, many lack confidence in their abilities to identify when content is manipulated.”

    But there are still broader dangers along epistemic erosion as GRR2026 admits:

    “In an extreme scenario, control over many aspects of society could be ceded to AI.” – GRR2026

    This is the nightmare of algorithmic governance in terms of technocratic absolutism, and also the fantasy project of billionaires like Elon Musk and Peter Thiel, spelled out in a most official policy forecast, like GRR. But it is not the worst scenario described by the Review. The third set of risks involves the envelopment of the industrial-military complex within the AI technosphere:

    “Third, with militaries’ reliance on AI systems continuing to increase, the potential for misuse or mistakes will rise, too, placing human lives directly at risk.” – GRR2026.

    No need to comment more or elaborate on that dismal future perspective, without risking delving into a technophobic dystopia.

    Nevertheless, technophobia, once more, seems reasonable, once we notice the WEF’s conclusion on the potential risks of AI for 2026:

    “What distinguishes AI-driven disruption from previous technological transitions is the potential for cascading failures across interconnected domains. Labor displacement ripples widely, into households, communities and political systems. Lack of economic opportunity or unemployment (ranked #14 in the GRPS 10-year ranking) can drive extremism; institutional distrust is interlinked with misinformation and disinformation; and surveillance empowers authoritarian responses to the instability that AI creates. Once established, these loops could become self-reinforcing.” – GRR2026

    What the WEF describes is what I have called Digital Barbarism. Is this the only potential future?

    The GRR2026 concludes by encouraging state governments to coordinate on strict measures and regulations, warning that AI should be considered as high a threat as nuclear weapons and biochemical weapons:

    “Coordination on minimum safety, transparency, and ethical deployment standards, particularly for military, biometric, and large-scale decision-making systems, is needed – yet requires cooperation similar to that for nuclear or bioweapons safeguards.” – GRR: 66

    This vague, conclusive suggestion makes the reader wonder if the authors read the previous pages of the document, where the lack of such coordination is mentioned as the cause of the problem in the first place.

    The case for democratic technoskepticism

    While its infrastructure is physical, cyberspace is a field of intersubjective communication where human subjects are the real nodes of meaning-making. The boundary between the digital and the real is a “porous membrane,” meaning digital actions have direct social-historical consequences.

    By acknowledging the “ontological duality” of the digital sphere—where models are communicative practices—we can bridge the gap between code and practice to build autonomous institutions.

    The dominant discourse on AI oscillates between two exaggerated imaginary trends of instituted Technophilia – AI as salvation, optimization, transcendence – and popular Technophobia – AI as domination, displacement, apocalypse – which both share the common ground of technological fatalism.

    Both trends obscure the fact that AI is a statistical mechanism, lacking interiority, intentionality, or autonomy. AI can be understood as a non-subjective statistical pattern manipulation machine, a computational tool, a being-by-and-for-another incapable of being‑for‑itself.

    Democratic Technoskepticism offers a third path. It rejects both utopian and dystopian fantasies and situates AI within the power structures, ecological constraints, and symbolic significations of contemporary society. Grounded in digital humanism, technoskepticism affirms the primacy of human autonomy and democratic oversight.

    Digital commons serve as a “practical paradigm” for “digital repossession”. They materialize values opposed to capitalist norms, such as reciprocity, equity, solidarity, and self-management. In the digital commons, exchange is not money, labor is not exploited, and experience is not reduced to data points.

    By ‘practical paradigm’ I mean, as opposed to theoretical paradigms, a model that can be implemented practically, thus creating a network of human activities towards common goals. This bridge between code and practice is possible thanks to the ontological duality of the digital sphere, where models are communicative practices and not just abstractions. As such a ‘practical paradigm’, it can be developed further into the communicative modality of social institutions of social liberty, justice, social autonomy, revocability, equality, inclusivity, self-government, and cosmo-localism, both in the sphere of common design and production, but also in the sphere of cultural discourse and co-creation. The rooting of digital commoning into physical social-historical reality opens possibilities for a wider radical social transformation through the combination of digital communing with practices of grassroots democratic politics and social ecological communities. This combination implies the co-joint recreation of an autonomous free public space and time, both in the digital and physical realms of human co-existence.

    In hierarchical systems, information is extracted from below, and commands are issued from above. Digital commons allow for the “reversal of the flow,” where political decisions are issued by the social basis, informed by transparent, second-order institutions of data-processing. This creates an autonomous digital public space and time that supports direct democratic horizontal networks.

    Contemporary democratic social movements, characterized by their sustained collective claims and unique “repertoires” of dissent, provide the physical counterpart to digital commoning. Unlike authoritarian movements (e.g., “Trumpism”) that use digital networks for top-down propaganda, democratic movements emphasize communal assemblies, direct democracy, and the refusal of hierarchical authority.

    We could imagine Technoskepticism like a theoretical telescope – it helps us discover potential breaches of democratic rules and violations of human rights on the horizon of future expectations. Digital humanism is like a political compass— it helps us navigate toward a democratic common future. Digital Humanism builds on the concerns raised by technoskepticism, offering solutions and design principles. It embeds principles of direct democracy, digital commoning, and social ecology into technological development.

    Temporality and community are the key conditions for these acts of dispossession or repossession. In that framework, the individuals who allow their personal time to become colonized, co-opted, and absorbed within the dominant rhythms of social -networking, profile influencing, and digital marketing contribute to the expansion of the networks of capitalist dispossession actively, by becoming proponents of their marketing model. In the digital world, models are practices and the capitalist terms of digital representation are terms of individual commodification. These digital netizens are the innovators and influencers of capitalist post-modernism; they are the new entrepreneurs that exploit and are exploited, they are actors of the dispossession machine. Therefore, they create consumerist communities, which function as operators and accelerators for the circular, repetitive temporality of dispossession; incursion, habituation, data reification, and public diversion.

    This cycle feeds the multiplication of social crises through the spread of individualistic consumerism, political apathy or fanaticism, proliferation of advertising strategies, and the reification of personal experience. Time and community in the form of personal engagement and collective experiences are the new commodities, fragmented under the fictitious principle of digital individuality.

    On the contrary, the praxis of digital repossession is constituted by the creation of a free common temporality via the tools provided by social ecology, digital commons and the emancipation of human subjectivity within open, horizontal, and democratic communities.

    The current crisis of AI and surveillance capitalism presents a choice between two paths: one of automated “envelopment” and another of collective “repossession.” By rooting digital commoning in social-historical reality, we can reclaim the digital sphere as a field for “poetics/acting”—a space where human subjects define their own purposes. This project of social autonomy aims for a post-capitalist, ecological, and humanist future where technology serves to enhance, rather than replace, human agency and democratic self-governance.

    The post A Descent into Digital Barbarism: Reviewing the World Economic Forum’s Global Risks Report 2026 first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/01/25/wef-global-risks-report-2026/feed/ 0 21971
    Castoriadis Against Heidegger: Alexandros Schismenos interview https://www.aftoleksi.gr/2026/01/04/castoriadis-against-heidegger-schismenos/?utm_source=rss&utm_medium=rss&utm_campaign=castoriadis-against-heidegger-schismenos https://www.aftoleksi.gr/2026/01/04/castoriadis-against-heidegger-schismenos/#respond Sun, 04 Jan 2026 07:35:15 +0000 https://www.aftoleksi.gr/?p=21796 Clara Swan Kennedy interviews Alexandros Schismenos, author of Castoriadis Against Heidegger: Time and Existence, exploring the philosophical confrontation between Cornelius Castoriadis’ project of autonomy versus Martin Heidegger’s ontology of Being.  

    The post Castoriadis Against Heidegger: Alexandros Schismenos interview first appeared on Aυτολεξεί.

    ]]>
    Clara Swan Kennedy interviews Alexandros Schismenos, author of Castoriadis Against Heidegger: Time and Existence, exploring the philosophical confrontation between Cornelius Castoriadis’ project of autonomy versus Martin Heidegger’s ontology of Being.

     

    The post Castoriadis Against Heidegger: Alexandros Schismenos interview first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2026/01/04/castoriadis-against-heidegger-schismenos/feed/ 0 21796
    Η Τεχνητή Νοημοσύνη δεν ενδιαφέρεται για την Ηθική: Γιατί ο τεχνοσκεπτικισμός πρέπει να είναι πολιτικός. https://www.aftoleksi.gr/2025/12/30/technoskeptikismos/?utm_source=rss&utm_medium=rss&utm_campaign=technoskeptikismos https://www.aftoleksi.gr/2025/12/30/technoskeptikismos/#respond Tue, 30 Dec 2025 07:21:17 +0000 https://www.aftoleksi.gr/?p=21749 του Αλέξανδρου Σχισμένου Εισαγωγή Καθώς προχωρούμε βαθύτερα σε μια εποχή αλγοριθμικής διακυβέρνησης, ο «τεχνοσκεπτικισμός» έχει εξελιχθεί από μια περιθωριακή κριτική σε μια ζωτική στρατηγική επιβίωσης. Παρά τους εμφανείς περιορισμούς της σύγχρονης τεχνητής νοημοσύνης, από τις ψευδαισθήσεις έως την οικολογική εξάντληση, οι σύγχρονες κοινωνίες έχουν διασχίσει αμετάκλητα το κατώφλι της λεγόμενης Τέταρτης Βιομηχανικής Επανάστασης [Industry 4.0], [...]

    The post Η Τεχνητή Νοημοσύνη δεν ενδιαφέρεται για την Ηθική: Γιατί ο τεχνοσκεπτικισμός πρέπει να είναι πολιτικός. first appeared on Aυτολεξεί.

    ]]>
    του Αλέξανδρου Σχισμένου

    Εισαγωγή

    Καθώς προχωρούμε βαθύτερα σε μια εποχή αλγοριθμικής διακυβέρνησης, ο «τεχνοσκεπτικισμός» έχει εξελιχθεί από μια περιθωριακή κριτική σε μια ζωτική στρατηγική επιβίωσης.

    Παρά τους εμφανείς περιορισμούς της σύγχρονης τεχνητής νοημοσύνης, από τις ψευδαισθήσεις έως την οικολογική εξάντληση, οι σύγχρονες κοινωνίες έχουν διασχίσει αμετάκλητα το κατώφλι της λεγόμενης Τέταρτης Βιομηχανικής Επανάστασης [Industry 4.0], η οποία αποτελεί την τρέχουσα φάση της ψηφιακής οντολογικής επανάστασης που ξεκίνησε στα τελευταία χρόνια του 20ού αιώνα και ριζώνει στην ιδέα του Tim Berners-Lee για τον Σημασιολογικό Ιστό. Ωστόσο, η ψηφιακή τεχνολογία απομακρύνεται από αυτή την αρχική κοινωνιοκεντρική αντίληψη, κατευθυνόμενη προς την ενσωμάτωση της ΤΝ και την αυτόματη διοίκηση.

    Η παγκόσμια πανδημία του 2020 και τα επακόλουθα lockdowns επιτάχυναν την ψηφιακή περίσφιξη των καπιταλιστικών κοινωνιών παγκοσμίως, με βασικούς τομείς διακυβέρνησης, κοινωνικών υπηρεσιών και αγοραστικών συναλλαγών να μετακινούνται στη ψηφιακή σφαίρα. Για μια σύντομη περίοδο, οι κοινωνικές αλληλεπιδράσεις και οι κοινωνικές επικοινωνίες έγιναν αποκλειστικά ψηφιακές τηλεπικοινωνίες, και ακόμη και μετά τα lockdowns, ένα σημαντικό μέρος της ανθρώπινης αλληλεπίδρασης παρέμεινε ψηφιακό με πιο μόνιμο τρόπο.

    Στα τέλη του 2022, λίγο περισσότερο από έναν χρόνο μετά την πανδημία, η κυκλοφορία του ChatGPT της OpenAI εισήγαγε τα LLMs στο ευρύτερο παγκόσμιο κοινό, αφήνοντας τους περισσότερους αποσβολωμένους. Έκτοτε, η τεχνολογία ΤΝ έχει καταλάβει τη κοινωνική φαντασία, ζυμώνοντας τόσο όνειρα όσο και εφιάλτες.

    Τον Φεβρουάριο του 2025, το DISCO Network, ένα δίκτυο ερευνητών με έδρα το Πανεπιστήμιο Stanford στις ΗΠΑ δημοσίευσε το βιβλίο Technoskepticism, Between Possibility and Refusal ως στρατηγική επιβίωσης για περιθωριοποιημένες ομάδες απέναντι στη συστημική ανισότητα.

    Σύμφωνα με το DISCO Network, κάθε λογισμικό φέρει το βάρος των προκαταλήψεων των δημιουργών του—μια πραγματικότητα που καθιστά αναγκαία μια στρατηγική «ενημερωμένης άρνησης». Αυτό αντικατοπτρίζει τη δική μου ανησυχία σχετικά με τον Ψηφιακό Λόγο: τον τρόπο με τον οποίο η αλγοριθμική λογική αποικίζει τον δημόσιο χρόνο μας, μετατρέποντας τη μοιρασμένη κοινωνική εμπειρία σε μια σειρά από ποσοτικοποιήσιμα, εξαγώγιμα δεδομένα.

    Στο πρόσφατο βιβλίο μου, Artificial Intelligence and Barbarism: A Critique of Digital Reason (Athens School 2025), προτείνω να αναζητήσουμε έναν ενδιάμεσο δρόμο, βασισμένο στη δημόσια σκέψη και την ενημερωμένη κριτική, τον οποίο ονόμασα επίσης Τεχνοσκεπτικισμό.

    Η συμφωνία είναι προφανής: πρέπει να είμαστε επιφυλακτικοί απέναντι στην Τεχνητή Νοημοσύνη και να θεωρούμε την τεχνολογία ως εγγενώς συνδεδεμένη με την εξουσία. Πρέπει να αναγνωρίσουμε ότι η τεχνολογία δεν είναι ποτέ ουδέτερη.

    Ωστόσο, προκρίνω μια πιο πολιτική και οντολογική αντίληψη δημοκρατικού τεχνοσκεπτικισμού. Για να εξηγήσω τι εννοώ, πρέπει πρώτα να ορίσω τον τεχνοσκεπτικισμό σε αντιπαράθεση με τις αντίθετες ακραίες στάσεις της τεχνοφιλίας και της τεχνοφοβίας.

    Τεχνοφιλία εναντίον τεχνοφοβίας

    Τα όνειρα της ανθρώπινης απελευθέρωσης από την κοπιαστική εργασία μέσω της τεχνολογίας βασανίζουν το κοινωνικό φαντασιακό τουλάχιστον από την εποχή του Αριστοτέλη, ο οποίος υποστήριξε ότι μηχανικά αγάλματα θα μπορούσαν να αντικαταστήσουν την εργασία των σκλάβων, εάν ήξεραν να ακολουθούν εντολές [Πολιτικά 1253b53]. Ωστόσο, στη νεωτερικότητα, αυτά τα όνειρα συνδέθηκαν άρρηκτα με τη φιλοδοξία της ορθολογικής κυριαρχίας πάνω στη φύση, όπως εκφράστηκε επίσημα από τον Ντεκάρτ το 1635, όταν επιδίωξε μια ολική γνώση που θα μας επέτρεπε «να καταστήσουμε τους εαυτούς μας κυρίους και κατόχους της φύσης».

    Ο Καστοριάδης παρατήρησε ότι ο Ντεκάρτ δεν εκφράζει απλώς μια προσωπική επιθυμία για πλήρη κατανόηση της φύσης, αλλά δίνει φιλοσοφική μορφή σε μια νέα κοινωνικο-ιστορική αναπαράσταση του Είναι, σύμφωνα με την οποία ό,τι είναι ‘ορθολογικό’ (και ειδικότερα μαθηματικοποιήσιμο) «είναι εξαντλήσιμο de jure, και ο σκοπός της γνώσης είναι η κυριαρχία και η κατοχή της φύσης» [1987: 272].

    Η ώθηση πίσω από την ανάπτυξη της τεχνολογίας ΤΝ αποτελεί την αιχμή της καπιταλιστικής φαντασιακής σημασίας της ολικής κυριαρχίας πάνω στη φύση, τόσο την άψυχη όσο και την ανθρώπινη, μέσω της ψηφιοποίησης.

    Οι προσδοκίες γύρω από την Τεχνητή Νοημοσύνη αναπτύσσονται πολύ ταχύτερα από την ίδια την τεχνολογία, αλλά μαζί με τις προσδοκίες αυξάνονται και οι επενδύσεις, και οι εταιρείες ΤΝ τα τελευταία χρόνια αποτελούν τις πλέον χρηματοδοτούμενες επιχειρήσεις παγκοσμίως. Αυτός είναι ο βασικός λόγος για τον οποίο η εξάπλωση της ΤΝ επιταχύνεται: διότι καθοδηγείται από μια ρητή πολιτική επιθυμία των τεχνο-καπιταλιστικών ελίτ, που επιδιώκουν να εκμεταλλευτούν τις δυνατότητες της ΤΝ στην επιτήρηση, την ταξινόμηση, την εξατομίκευση, τη χειραγώγηση και την ιδιωτική παρακολούθηση των παγκόσμιων καταναλωτικών πληθυσμών. Αυτή η πολιτική δύναμη, προσωποποιημένη από τον Πρόεδρο των Η.Π.Α. D.J. Trump και την κυβέρνησή του, έχει βοηθήσει τις εταιρείες ΤΝ να υπερβούν κοινωνικά και πολιτικά εμπόδια και να συσκοτίσουν, λίγο-πολύ, τη δημόσια επίγνωση της βαθιάς και μη αναστρέψιμης επίδρασης της ΤΝ τόσο στο φυσικό όσο και στο κοινωνικό περιβάλλον. Οι κυβερνήσεις και οι κρατικές αρχές παγκοσμίως προωθούν και επιβάλλουν την επίσημη συστημική εκδοχή αυτού που θα ονόμαζα τεχνοφιλία, την ιδέα ότι η τεχνολογία θα φέρει μια ουτοπία, όπως κι αν την φαντάζεται κανείς. Θα μπορούσαμε να πούμε ότι πρόκειται για μια μορφή θεσμισμένης τεχνοφιλίας «από τα πάνω», που εκφράζει τις φιλοδοξίες και τα συμφέροντα των ανώτερων στρωμάτων της κοινωνικής ιεραρχίας.

    Στην αντίθετη πλευρά βρίσκεται η αυξανόμενη τάση της τεχνοφοβίας, που εξαπλώνεται στη λαϊκή κουλτούρα, τα μέσα κοινωνικής δικτύωσης και τη δημόσια φαντασία, και που ριζώνει βαθιά στην εμπειρία του εφιαλτικού κοινωνικού κόστους της Βιομηχανικής Επανάστασης και στον φόβο της υποδούλωσης από τις μηχανές. Αυτός ο φόβος συνδυάζει την κοινωνικο-ιστορική εμπειρία των εργαζόμενων τάξεων και των αποικιοκρατούμενων λαών με τις αναπαραστάσεις μιας δυστοπικής, υποδουλωμένης ανθρωπότητας στις δημοφιλείς τέχνες, τον κινηματογράφο, τη λογοτεχνία και τα μαζικά μέσα. Ίσως η πιο διάσημη εκδοχή της τεχνοφοβίας σχετικά με την ΤΝ προήλθε από τον Dr. Stephen Hawking, ο οποίος είπε:

    «Μόλις οι άνθρωποι αναπτύξουν τεχνητή νοημοσύνη που θα εξελίσσεται μόνη της και θα ανασχεδιάζει τον εαυτό της με ολοένα αυξανόμενο ρυθμό, οι άνθρωποι, περιορισμένοι από τη βραδεία βιολογική εξέλιξη, δεν θα μπορέσουν να την ανταγωνιστούν και θα υπερκεραστούν.»

    Η τεχνοφοβία δεν περιορίζεται στα κατώτερα κοινωνικά στρώματα, αλλά είναι διαδεδομένη σε όλο το κοινωνικό φάσμα, χωρίς κάποιο αυταρχικό πολιτικό ή οικονομικό κέντρο να καθοδηγεί τη διάδοσή της. Είναι περισσότερο μια αναμενόμενη κοινωνική αντίδραση, δεδομένου του χάσματος ανάμεσα στη τεχνική γνώση και τους μελλοντικούς στόχους του τεχνο-επιστημονικού μηχανισμού αφενός, και τις αποσπασματικές απόψεις του κοινού γύρω από την τεχνολογία αφετέρου. Όταν όμως αυτό το συναίσθημα εκφράζεται και από ανθρώπους που ανήκουν, λίγο-πολύ, στο τεχνο-επιστημονικό περιβάλλον, όπως ο Dr. Hawking, δεν μπορεί κανείς να το απορρίψει ως λαϊκή παρανόηση.

    Από τη Γάζα έως τις ΗΠΑ, οι εφαρμογές ΤΝ έχουν χρησιμοποιηθεί από κρατικές αρχές, ιδιωτικές εταιρείες και άγνωστους φορείς για να παρακολουθούν, να ταξινομούν, να στοχοποιούν, να επηρεάζουν και να χειραγωγούν πληθυσμούς, ψηφοφόρους και άτομα, με τρόπο που υπονομεύει άμεσα τον δημόσιο λόγο και διαβρώνει τη συλλογική γνώση μέσω της διάδοσης μυθοπληροφορίας, deepfakes και παραγόμενων από ΤΝ εικόνων που παρουσιάζουν μια παραμορφωμένη εκδοχή της πραγματικότητας.

    Η εικόνα έχει χρησιμοποιηθεί για την προπαγάνδα των κυρίαρχων φαντασιακών σημασιών από την αυγή της κοινωνίας, δεδομένου ότι οι κυρίαρχες φαντασιακές σημασίες διαμορφώνονται σε κοινωνικές αναπαραστάσεις και ότι το νόημα εκπροσωπείται πάντοτε συμβολικά.

    Αλλά με την εμφάνιση των LLMs, διαθέτουμε πλέον αυτόματους παραγωγούς εξαιρετικά ρεαλιστικών εικόνων, και έχουμε επίσης τα μέσα —το Διαδίκτυο— για την ανεξέλεγκτη παγκόσμια διάδοσή τους αυτοστιγμεί. Σε μια τέτοια εποχή, η τεχνοφοβία φαίνεται εύλογη. Ωστόσο, αποτελεί μια τάση βασισμένη στο συναίσθημα, όχι στη λογική σκέψη. Δεν υπάρχει επιστροφή στον προ-ψηφιακό κόσμο, παρά μόνο μέσω μιας παγκόσμιας καταστροφής, την οποία κανείς δεν θα επιθυμούσε. Πρέπει να είμαστε προσεκτικοί απέναντι στην τεχνοφοβία για τον εγγενή της λόγο, λαμβάνοντας υπόψη ότι μπορεί να οδηγήσει στο δρόμο του ανορθολογισμού και στην πλήρη απόρριψη της επιστημονικής έρευνας και της ορθολογικής κριτικής.

    Επιπλέον, πρέπει να μπορούμε να διακρίνουμε ότι πίσω από την ρητή τους αντίθεση, και οι δύο στάσεις μοιράζονται ένα υπόρρητο φαντασιακό σχήμα: την αντίληψη της τεχνολογικής προόδου ως μιας εξω-ιστορικής δύναμης που κινεί τον κόσμο προς ένα αναπόδραστο μέλλον κυριαρχίας των μηχανών, υπεράνω των πολιτικών συγκρούσεων. Από αυτό προκύπτει η αρχή της υποταγής της πολιτικής στην τεχνολογία, η οποία έχει εκφραστεί στην ιδεολογία της τεχνοκρατίας, που είναι ήδη αιωνόβια.

    Ο καθηγητής Π. Νούτσος μας πληροφορεί

    “Οι όροι «technocracy» και «technocrats» εμφανίσθηκαν για πρώτη φορά στις Ηνωμένες Πολιτείες κατά την περίοδο τοο μεσοπολέμου, όταν ο φιλελευθερισμός αμφισβητείται τόσο από τις συντηρητικές πολιτικές δυνάμεις της ητ- τημένης Γερμανίας όσο και από τις επαναστατικές εστίες της «Κομμουνιστικής Διεθνούς». Όταν δηλαδή η κρίση των πολιτικών φορέων της ιδεολογίας της προόδου αντιμετωπίζεται με το πρίσμα είτε τοο «ολοκληρωτικού κράτους», που ενεργεί στο όνομα του «έθνους», είτε του σοσιαλιστικού μετασχηματισμού, που τελείται με μοχλό την «εργατική τάξη», προτάσσονται οι «τεχνοκράτες» ως ειδικοί για την επιτάχυνση της τεχνολογικής ανάπτυξης και την «ορθολογική» διαχείριση της καρποφορίας της.” [Νούτσος, 1988]

    Οι επιχειρήσεις ΤΝ και εξέχουσες ακροδεξιές φιγούρες των ολιγοπωλίων των «Tech-Bros» της Silicon Valley, όπως ο Peter Thiel και ο Elon Musk, αποτελούν τη νεότερη εκδοχή της τεχνοκρατικής ιδεολογίας που υποστηρίζει τη μεταφορά της πολιτικής λήψης αποφάσεων στη τεχνική διοίκηση, υπό τη μορφή της ψηφιακής τεχνοκρατίας και του τεχνολογικού επιταχυντισμού ή, όπως έχει αποκληθεί με μάλλον πομπώδη τρόπο, τεχνοφεουδαρχία — ένα σύγχρονο οικονομικό σύστημα όπου οι μεγάλες τεχνολογικές εταιρείες έχουν δύναμη ανάλογη με εκείνη των φεουδαρχών του παρελθόντος. [Βαρουφάκης 2024]

    Σε αυτό το σημείο, μπορούμε να θεωρήσουμε την τεχνοκρατία τόσο ως το φαντασιακό τελικό στάδιο της θεσμισμένης τεχνοφιλίας όσο και ως την ιδεολογία της ψηφιακής βαρβαρότητας.

    Η φιλοσοφία του τεχνοσκεπτικισμού

    Κατά τη γνώμη μου, ο τεχνοσκεπτικισμός είναι μια φιλοσοφική προσέγγιση στις ψηφιακές τεχνολογίες όπως η Τεχνητή Νοημοσύνη, βασισμένη στην κοινωνικο-ιστορική κριτική και όχι στην τυφλή αποδοχή ή τον φοβικό αποκλεισμό.

    Ο τεχνοσκεπτικισμός βασίζεται στην ιδέα ότι η ψηφιακή τεχνολογία είναι προϊόν του κυρίαρχου κοινωνικού φαντασιακού της εργαλειακής ορθολογικότητας, που περιτυλίγει το κοινωνικο-ιστορικό μας περιβάλλον [Floridi 2023], μετασχηματίζοντάς το σε μια ημι-ψηφιακή σφαίρα τηλεπαρουσίας. Η ΤΝ, ως ψηφιακό σύστημα, δεν έχει εσωτερικότητα, άρα ούτε προθετικότητα. Στο πλαίσιο του Ψηφιακού Ανθρωπισμού, στην αρχή και στο τέλος του συστήματος βρίσκονται ανθρώπινα υποκείμενα και προθέσεις με κοινωνική σημασία, που επιτελούν δημόσιες πράξεις μέσω της τεχνολογίας.

    Στις αρχές του 2025 το DISCO Network κυκλοφόρησε το βιβλίο Technoskepticism, Between Possibility and Refusal (Stanford University Press 2025), στο οποίο υποστηρίζουν μια «στρατηγική επιβίωσης για περιθωριοποιημένες ομάδες που κινούνται ανάμεσα στη “δυνατότητα” (χρήση της τεχνολογίας για φροντίδα και πρόνοια) και την “άρνηση” (απόρριψη συστημάτων εξαγωγής δεδομένων)». Εστιάζουν στη συστημική ανισότητα και την εμπειρία ζωής των περιθωριοποιημένων ομάδων στις Ηνωμένες Πολιτείες, φωτίζοντας τον τρόπο με τον οποίο η τεχνολογία ενισχύει ρατσιστικές και αποικιοκρατικές δομές εξουσίας. Η δική τους ερμηνεία του τεχνοσκεπτικισμού είναι τοπική, θεματική και αποσκοπεί στην ενδυνάμωση των κοινοτήτων ώστε να ανακτήσουν την τεχνολογία προς όφελός τους, φέρνοντας στο προσκήνιο τη «Δικαιοσύνη μέσα στη Δυσλειτουργία» (Justice within the Glitch).

    Παρά το κοινό έδαφος, υπάρχουν διαφορές αναφοράς και εύρους ανάμεσα στην ερμηνεία του τεχνοσκεπτικισμού από το DISCO Network και στη δική μου. Η εκδοχή του DISCO Network είναι πιο συγκεκριμένη ως προς την ταυτότητα και την εμπειρία ζωής στο αμερικανικό πλαίσιο και αφορά κυρίως την επιβίωση και τη φροντίδα απέναντι σε ένα άδικο σύστημα. Η κριτική τους είναι κυρίως κοινωνιολογική και ηθική, εστιάζοντας σε πολύ σημαντικά μειονοτικά ζητήματα όπως η αλγοριθμική μεροληψία, η εξαγωγή δεδομένων από ευάλωτα σώματα και η επιτήρηση, ενώ θέτουν το κρίσιμο ερώτημα: Πώς επηρεάζει η τεχνολογία δυσανάλογα τις περιθωριοποιημένες και ιστορικά καταπιεσμένες κοινότητες;

    Η δική μου προσέγγιση στον τεχνοσκεπτικισμό είναι πιο οντολογική και πολιτική, ριζωμένη στην πολιτική φιλοσοφία της αυτονομίας. Προσπαθώ να απαντήσω στο ερώτημα: Τι κάνει η ΤΝ στην θεμελιώδη ανθρώπινη ικανότητα για αυτοκαθορισμό και δημιουργία νοήματος (Αυτονομία);

    Εστιάζω σε φαινόμενα του κοινωνικού φαντασιακού, όπως η αντικατάσταση της πολιτικής λογικής από τον τεχνικό υπολογισμό, που γεννούν νέες μορφές ετερονομίας και τον φόβο της κοινωνικής κατάρρευσης στην Ψηφιακή Βαρβαρότητα.

    Η Ψηφιακή Βαρβαρότητα είναι η απόλυτη απώλεια της αυτονομίας — της ικανότητάς μας ως ανθρώπων να δημιουργούμε τους δικούς μας νόμους, τις δικές μας αξίες και το δικό μας συλλογικό νόημα. Η ΤΝ ως «Ψηφιακός Λόγος», περιστέλλει τον χαώδη, πολύπλοκο και απρόβλεπτο χώρο των ανθρώπινων υποθέσεων (ηθική, πολιτική, κουλτούρα) σε υπολογίσιμες, ντετερμινιστικές μεταβλητές. Όταν οι συλλογικές αποφάσεις ανατίθενται στον αλγόριθμο, οι πολίτες γίνονται υποκείμενα Ετερονομίας — κυβερνώνται από μια μη ανθρώπινη λογική που δεν δημιούργησαν και δεν μπορούν να αμφισβητήσουν.

    Η κριτική του DISCO Network είναι κρίσιμη για την κατανόηση του ποιον βλάπτει το τρέχον σύστημα ΤΝ, αλλά συχνά σταματά πριν θέσει το ερώτημα πώς μετασχηματίζει το ίδιο σύστημα στην πολιτική μας ικανότητα. Αυτό είναι το ερώτημα που βρίσκεται στον πυρήνα της ευρωπαϊκής φιλοσοφικής παράδοσης. Κατά τη γνώμη μου, το νόημα του τεχνοσκεπτικισμού είναι η ανάκτηση του λόγου και του δήμου — η υπαγωγή της τεχνολογίας σε άμεσο, δημόσιο, δημοκρατικό έλεγχο.

    Αυτό είναι καθοριστικό, δεδομένων των ηθικών προβλημάτων που εγείρει η τεχνολογία ΤΝ. Παρότι πρέπει να συνεχίσουμε να υποστηρίζουμε ένα ηθικό πλαίσιο στον σχεδιασμό και την εφαρμογή της ΤΝ και να στηρίζουμε τις παγκόσμιες προσπάθειες πίεσης προς τις κυβερνήσεις για τη θέσπιση κοινών κανόνων και ρυθμίσεων στην έρευνα και παραγωγή ΤΝ, πρέπει να έχουμε κατά νου ότι οι κοινωνικο-ιστορικές συνθήκες δεν είναι ευνοϊκές.

    Η τεχνολογία εξαρτάται από την εξουσία και η εξουσία, εκ φύσεως, δίνει προτεραιότητα στα μέσα κυριαρχίας έναντι του κοινού καλού. Η ηθική εξαρτάται από την πολιτική σε βαθύτερο, θεσμικό επίπεδο, και η ισορροπία ισχύος μετατοπίζεται προς την ανεξέλεγκτη ΤΝ, τόσο σε οικονομικό όσο και στο πολιτικό πεδίο, δεδομένης και της άγνοιας του ευρύτερου κοινού για ζητήματα τεχνολογικής ρύθμισης.

    Κατά τη διάρκεια του τελευταίου έτους, γίναμε μάρτυρες της διάθεσης της πολιτικής εξουσίας να υπερβεί κάθε νομοθετικό εμπόδια υπέρ των επιχειρήσεων ΤΝ, αλλά και να επιτίθεται άμεσα σε θεσμούς κριτικής έρευνας και κατεστημένες επιτροπές Ηθικής, ενώ χρησιμοποιεί εργαλεία ΤΝ για να επηρεάσει τη δημόσια γνώμη και να προβάλει εικονική ισχύ.

    Πρέπει να αναγνωρίσουμε ότι η ΤΝ δεν ενδιαφέρεται για την Ηθική, επειδή εξαρτάται από την πολιτική εξουσία, η οποία μπορεί εύκολα να μετατοπίσει οποιαδήποτε ηθική ευθύνη αποφεύγοντας νομικές συνέπειες.

    Πρέπει να αναγνωρίσουμε ότι η ΤΝ δεν ενδιαφέρεται για την ηθική, διότι τίποτα ηθικό δεν είναι εγγενές στην ψηφιακή τεχνολογία. Αυτός είναι ο λόγος για τον οποίο πρέπει να αναστοχαστούμε το πολιτικό πλαίσιο και τους περιορισμούς που πρέπει να τεθούν στην ψηφιακή εξουσία από την κοινωνία των πολιτών και τα κοινωνικά κινήματα βάσης. Γι’ αυτό χρειαζόμαστε μια πολιτική, δημοκρατική θεώρηση του τεχνοσκεπτικισμού.

    Μπορούμε να περιγράψουμε τις βασικές αρχές του Δημοκρατικού Τεχνοσκεπτικισμού ως εξής:

    Η τεχνολογία δεν είναι ουδέτερη: Η τεχνολογία ενισχύει τις δομές εξουσίας ενσωματώνοντας υπάρχουσες κοινωνικές, οικονομικές και πολιτικές ιεραρχίες στον σχεδιασμό, την εφαρμογή και τον έλεγχό της. Δεν έχει σημασία μόνο ποιος κατασκευάζει την τεχνολογία — αλλά ποιος ωφελείται από αυτήν, ποιος τη διαχειρίζεται και ποιες αξίες ενσωματώνει.

    Αυτό οδηγεί στην ανάγκη κριτικής ενασχόλησης με τα ζητήματα της τεχνολογίας: Αντί να εμπιστευόμαστε την τεχνολογία επειδή είναι νέα ή να την απορρίπτουμε επειδή είναι ανατρεπτική, μπορούμε να θέτουμε βαθύτερα ερωτήματα: Ποιος ωφελείται από αυτή την εφαρμογή; Ποιες αξίες ενσωματώνει; Ποιο είναι το συνολικό κόστος της εφαρμογής της σε κοινωνικό, ηθικό και περιβαλλοντικό επίπεδο;

    Η τεχνητή “νοημοσύνη” δεν είναι νοημοσύνη: Αναγνωρίζουμε τη νοημοσύνη ως φυσική ιδιότητα που ορίζει την υποκειμενικότητα, την προθετικότητα και την ορθολογικότητα. Ωστόσο, η υποκειμενικότητα είναι ιδιότητα του ζωντανού όντος δι’εαυτόν. Ένας ψηφιακός μηχανισμός δεν είναι, εκ των πραγμάτων, ένα φυσικά αυτοδημιουργούμενο άτομο αλλά ένα αρθρωτό άψυχο αντικείμενο, ένα ον καθ’εαυτόν, χωρίς υποκειμενική εσωτερικότητα. Τα τρέχοντα μοντέλα ΤΝ βασισμένα σε LLM είναι μηχανές στατιστικής αναγνώρισης προτύπων. Αλλά ακόμη και η εναλλακτική αρχιτεκτονική, όπως η world AI ή η νευρο-συμβολική ΤΝ που προτείνει ο καθηγητής Gary Marcus, θα παρήγαγε λογιστικές μηχανές αλγοριθμικής συλλογιστικής — σε καμία περίπτωση ένα αισθανόμενο, αυτοαναφορικό, συνειδητό ον.

    Ο τεχνοσκεπτικισμός αντιστέκεται στην ιδέα ότι η αποτελεσματικότητα, η βελτιστοποίηση ή η κλιμάκωση πρέπει να είναι οι ύψιστοι στόχοι της τεχνολογίας. Υποστηρίζει ανθρωποκεντρικές αξίες: τη δημιουργικότητα, την αυτονομία και τον δημοκρατικό δημόσιο έλεγχο της τεχνολογίας.

    Σε αυτό το έδαφος, ο Τεχνοσκεπτικισμός βασίζεται στον Ψηφιακό Ανθρωπισμό και στην αντίσταση στην Ψηφιακή Βαρβαρότητα. Ο τεχνοσκεπτικισμός ερμηνεύει την τυφλή παράδοση σε τεχνολογικά συστήματα —ιδίως εκείνα που κυβερνώνται από αδιαφανή εταιρικά και πολιτικά συμφέροντα— ως μορφή σύγχρονης βαρβαρότητας.

    Η λύση πρέπει να είναι πολιτική· επομένως, η αντιμετώπιση του συμπτώματος (μεροληψία, εξαγωγή δεδομένων) είναι ανεπαρκής. Πρέπει να αντιμετωπίσουμε την ίδια την πολιτική μορφή της τεχνολογίας. Ο Δημοκρατικός Τεχνοσκεπτικισμός είναι η αναγκαία ενδιάμεση οδός:

    • Απορρίπτει την τεχνοφιλική ιδέα ότι η τεχνολογική πρόοδος είναι εγγενώς καλή.
    • Απορρίπτει την τεχνοφοβική ιδέα ότι πρέπει να εγκαταλείψουμε όλες τις μηχανές.
    • Απαιτεί κάθε σημαντική τεχνολογική επιλογή να αποσπαστεί από τους τεχνικούς ειδικούς και τα εταιρικά συμφέροντα και να υποβληθεί σε άμεση δημοκρατική διαβούλευση από τους πολίτες. Η τεχνολογία πρέπει να υπηρετεί την κοινωνία, όχι το κέρδος.

    Ο ορίζοντας της δημοκρατικής αυτονομίας, που εκτείνεται από τη φροντίδα και τη δικαιοσύνη έως την πολιτική χειραφέτηση, φέρει τον τεχνοσκεπτικισμό στο δημόσιο διάλογο. Αλλά πρέπει πάντα να έχουμε κατά νου ότι ο τεχνοσκεπτικισμός είναι συμπληρωματικός προς το πολιτικό πρόταγμα της κοινωνικής αυτονομίας, το οποίο απαιτεί την πραγματική πολιτική συμμετοχή στον πραγματικό δημόσιο χρόνο και χώρο, με όρους άμεσης δημοκρατίας, κοινών και κοινωνικής οικολογίας. Δεν πρέπει να ξεχνάμε ότι η δημοκρατία δεν είναι απλώς πληροφορία.

    Συμπερασματικά

    Κατά τη γνώμη μου, ο δημοκρατικός ψηφιακός ανθρωπισμός απαιτεί μια θεμελιώδη μετατόπιση τόσο στην εννοιολογική μας κατανόηση της τεχνολογίας όσο και στις πολιτικές δομές, αμφισβητώντας το κυρίαρχο τεχνο-βιομηχανικό σύμπλεγμα.

    Κάποια βασικά βήματα θα περιλάμβαναν:

    Την ανατροπή του καθεστώτος της Μυθοπληροφορίας

    Πολιτική προτεραιότητα είναι η αμφισβήτηση και η αποδόμηση της εταιρικής και πολιτικής προπαγάνδας (μυθοπληροφορίας) που καλλιεργεί την «τεχνοφιλία» και παρουσιάζει την ΤΝ ως μια ουδέτερη, πανάκεια δύναμη. Αυτό απαιτεί κριτική εξέταση των μεταφυσικών ισχυρισμών της ΤΝ περί «νοημοσύνης» ή συνείδησης.

    Την εδραίωση της ανθρώπινης υποκειμενικότητας και της συλλογικής πράξης

    Ο αναντικατάστατος ρόλος του ανθρώπινου υποκειμένου —ως δημιουργού, χρήστη και φορέα νοήματος— σε κάθε στάδιο λειτουργίας ενός ψηφιακού συστήματος. Αυτό σημαίνει την αναγνώριση ότι η φυσική νοημοσύνη είναι μια ανθρώπινη ικανότητα που δεν μπορεί να αναχθεί σε τεχνικές λειτουργίες.

    Ο απώτερος στόχος είναι η μετάβαση από την ετερονομία (κυβέρνηση από εξωτερικούς κανόνες ή τεχνολογικά συστήματα) στην αυτονομία (αυτοκυβέρνηση). Αυτό προϋποθέτει ότι οι άνθρωποι δημιουργούν συλλογικά τους θεσμούς και τους κανόνες που διέπουν τη ζωή τους, συμπεριλαμβανομένου του ρόλου της τεχνολογίας μέσα στην κοινωνία.

    Την εφαρμογή Άμεσου Δημοκρατικού Ελέγχου

    Στον πυρήνα του πολιτικού βρίσκεται η άμεση δημοκρατία. Το τελικό ερώτημα είναι πολιτικό: «Ποιος ελέγχει τους παρόχους της ΤΝ;». Ο έλεγχος αυτός πρέπει να ανήκει στους ανθρώπους, μέσω ανοιχτών, δημοκρατικών διαδικασιών βάσης, και όχι σε εταιρείες ή συγκεντρωτικές κρατικές γραφειοκρατίες.

    Την αναδημιουργία του δημόσιου χρόνου και του δημόσιου χώρου

    Στόχος είναι η ενδυνάμωση της ενημερωμένης λήψης αποφάσεων και η συμβολή σε ένα πιο δημοκρατικό ψηφιακό μέλλον.

    Ο δημοκρατικός τεχνοσκεπτικισμός προσφέρει ένα όραμα όπου η τεχνολογική ανάπτυξη δεν αποτελεί αυτοσκοπό, αλλά μέσο για την καλλιέργεια μιας αυτόνομης κοινωνίας βασισμένης σε ανθρωπιστικές αξίες, κριτική σκέψη και δημοκρατική αυτοκυβέρνηση..


    ΑΝΑΦΟΡΕΣ:

    Castoriadis, C. (1987). The Imaginary Institution of Society, transl. K. Blamey, Polity Press 1987, New York.

    Descartes, R. (1909). Discourse on the method of rightly conducting the reason and seeking the truth in the sciences, edited by Charles W. Eliot. Published by P.F. Collier & Son, New York.

    Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press.

    Marcus, G. (2019). Rebooting AI, Pantheon Press, New York.

    Νούτσος, Π. (1992). Η Σοσιαλιστικη Σκέψη στην Ελλάδα, τ. Γ’, εκδ. Γνώση., Αθήνα.

    Varoufakis, Y. (2024). Technofeudalism What Killed Capitalism. Vintage Books, London

    • η αγγλική μετάφραση του άρθρου εδώ 

    The post Η Τεχνητή Νοημοσύνη δεν ενδιαφέρεται για την Ηθική: Γιατί ο τεχνοσκεπτικισμός πρέπει να είναι πολιτικός. first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2025/12/30/technoskeptikismos/feed/ 0 21749
    AI doesn’t care about Ethics: Why technoskepticism must be political https://www.aftoleksi.gr/2025/12/26/ai-doesn-t-care-about-ethics-why-technoskepticism-must-be-political/?utm_source=rss&utm_medium=rss&utm_campaign=ai-doesn-t-care-about-ethics-why-technoskepticism-must-be-political https://www.aftoleksi.gr/2025/12/26/ai-doesn-t-care-about-ethics-why-technoskepticism-must-be-political/#respond Fri, 26 Dec 2025 07:48:13 +0000 https://www.aftoleksi.gr/?p=21706 by Alexandros Schismenos Introduction As we move deeper into an era of algorithmic governance, technoskepticism has evolved from a niche critique into a vital survival strategy. Despite the noticeable limitations of current AI technology, from hallucinations to ecological destitution, modern societies have irreversibly crossed the threshold of the so-called Fourth Industrial Revolution [Industry 4.0], which [...]

    The post AI doesn’t care about Ethics: Why technoskepticism must be political first appeared on Aυτολεξεί.

    ]]>
    by Alexandros Schismenos

    Introduction

    As we move deeper into an era of algorithmic governance, technoskepticism has evolved from a niche critique into a vital survival strategy. Despite the noticeable limitations of current AI technology, from hallucinations to ecological destitution, modern societies have irreversibly crossed the threshold of the so-called Fourth Industrial Revolution [Industry 4.0], which is the current phase of the digital ontological revolution that began in the last years of the 20th century and is rooted in Tim Berners-Lee’s idea of the Semantic Web. However, digital technology is moving away from this initial sociocentric idea, toward AI integration and automatic administration.

    Since 2016, the global pandemic of 2020 and the subsequent shutdowns have accelerated the digital envelopment of capitalist societies worldwide, with major sectors of governance, social services, and market transactions moving to the digital sphere. For a brief period, social interactions and social communications became solely digital telecommunication, and even after the shutdowns, a significant portion of human interaction became digital in a more permanent manner.

    In late 2022, just over a year after the pandemic, the launch of OpenAI’s ChatGPT introduced LLMs to the broader global public, leaving most stupefied. Since then, AI technology has taken hold of social imagination, fermenting both dreams and nightmares.

    In February 2025, the DISCO Network released their book Technoskepticism, Between Possibility and Refusal” as a survival strategy for marginalized groups against systemic inequity.

    In the framework of the DISCO Network, every piece of software carries the baggage of its creators’ biases—a reality that necessitates a strategy of ‘informed refusal.’ This mirrors my own concern regarding Digital Reason: the way algorithmic logic colonizes our public time, transforming shared social experience into a series of quantifiable, extracted data points.

    In my recent book, Artificial Intelligence and Barbarism: A Critique of Digital Reason (Athens School 2025, Athens), I propose we search for a middle road, based on public reflection and informed criticism, that I also called Technoskepticism.

     The consensus is clear: we must be skeptical of Artificial Intelligence and see technology as inherently linked to power. We must recognize that technology is never a neutral container.

    However, I call for a more political and ontological conception of democratic technoskepticism. To properly explain what I mean, I should first define technoskepticism against the opposing extreme positions of technophilia and technophobia.

    Technophilia against technophobia.

    Dreams of human liberation from menial labor via technology have tormented the social imagination at least since the time of Aristotle, who asserted that mechanical statues could replace slave labor if they would follow commands [Politics 1253b53]. However, in modernity, they became inexorably entangled with the ambition of rational domination over nature, formally expressed by Descartes in 1635, when he aspired to total knowledge that would “thus render ourselves the lords and possessors of nature.” [Descartes 1909]

    Castoriadis observed that Descartes is not merely expressing a personal desire for the total understanding of nature, but rather gives literary form to the emergence of a novel social-historical representation of being, “whereby all that is ‘rational’ (and, in particular, mathematizable), that which is to be known, is exhaustible de jure, and the end of knowledge is the mastery and the possession of nature” [1987: 272]

    The imaginary impetus behind the development of AI technology is the spearhead of capitalism’s drive toward the imaginary goal of total mastery of nature, both inanimate and human, by means of digitization.

    Expectations around AI are developing way faster than the actual technology, but along with expectations, investments also increase, and AI companies in recent years are the most highly financed businesses worldwide.

    This is the main reason why AI expansion is increasing, because it is driven by an explicitly political desire of techno-capitalist elites that are eager to cash in on AI’s capacities in surveillance, classification, personalization, manipulation, and monitoring of the global consumer populations privately.

    This political force, personified by the President of the U.S.A. D.J. Trump and his government has helped AI companies overcome social and political obstructions and more or less obscure the public awareness of AI’s deep and irreversible impact on both the natural and societal environment. Governments and state authorities worldwide promote and enforce the official structural version of what I would call technophilia, the idea that technology will bring forth utopian, however one imagines it. We could say it is a form of instituted technophilia from above, expressing the ambitions and interests of the upper echelon of social hierarchy.

    One the opposite side stands the growing trend of technophobia, spreading across pop culture, social media and public imagination, that is deeply rooted in the nightmarish social cost of the Industrial Revolution and the fear of enslavement by the machines that combines the social-historical experience of the working classes and colonized people with hellish representations of a dystopian enslaved humanity across popular arts, cinema, literature and mass media. Perhaps the most famous iteration of technophobia regarding AI came from Dr. Stephen Hawking, who said:

    “Once humans develop artificial intelligence that would take off on its own and redesign itself at an ever increasing rate, humans who are limited by slow biological evolution couldn’t compete and would be superseded.”

    Technophobia is not restricted to the lower classes of society but is widespread across the social spectrum, without any authoritarian political or economic center behind its spread. It is more of an expected social reaction, given the gap between the technical knowledge and future objectives of the techno-scientific apparatus and the public’s fragmentary opinions around technology. But when this sentiment comes also from people who belong more or less, to that same techno-scientific environment, like dr. Hawking, one cannot simply dismiss it like a popular misconception.

    From Gaza to the USA, AI applications have been used by state authorities, private companies, and unknown actors to monitor, classify, target, influence and manipulate populations, voters and individuals, in a way that directly compromises public discourse and dilutes common knowledge by the spread of mythinformation, deep-fakes, and AI-generated images of a distorted view of reality.

    Image has been used for propaganda of the dominant imaginary significations since the dawn of society, given that dominant imaginary significations are formulated into social representations and that meaning is always represented symbolically.

    But with the advent of LLMs, we have automatic generators of highly realistic images in an instant, and we also have the means, the Internet, for their unchecked proliferation on a global scale. In such a time, technophobia seems reasonable. However, it is a trend based on sentiment, not logical thinking. There is no turning back to the pre-digital world, albeit by a worldwide catastrophe, which no one would desire. We should be cautious of technophobia for its inherent reason, taking note of the fact that it can lead to the path of irrationality and the complete dismissal of scientific research and rational critique.

    Moreover, we should be able to discern that behind their explicit opposition, both trends share an implicit imaginary schema: the conception of technological progress as an extra-historical force that moves the world towards an inescapable future of machine dominance, rising above current political fissures. From this stems the principle of the subordination of politics to technology, which has been given expression in the ideology of technocracy, that is already a century old.

    Professor P. Noutsos informs us that the terms “technocracy” and “technocrats” first appeared “in the United States during the interwar period, when liberalism was being challenged by both the conservative political forces of defeated Germany and the revolutionary centers of the “Communist International.”[…] “technocrats” were put forward as experts in accelerating technological development and the “rational” management of its fruits. In fact, the position of “technocracy” was strengthened by the economic crisis of 1929, which triggered the “New Deal” policy and legitimized increasing state interventionism in the unfolding of the functions of industrial capital.” [Noutsos, 1988]

    AI enterprises and prominent far-right figures of the “Tech-Bros” oligopolies of Silicon Valley, like Peter Thiel and Elon Musk are the latest version of the technocratic ideology that advocates the transfer of political decision making to technical administration in the form of digital technocracy and technological accelerationism or, what has been called, in a rather pompous manner, technofeudalism, a modern economic system where big technology companies have power similar to feudal lords in the past. [Varoufakis 2024]

    At this point, we can regard technocracy as both the imaginary final stage of instituted technophilia and the ideology of digital barbarism.

    The philosophy of technoskepticism.

    In my opinion, technoskepticism is a philosophical approach to digital technologies like Artificial Intelligence, based on social-historical criticism rather than blind acceptance or fearful rejection. It’s not anti-tech, but rather tech-aware. Technoskepticism is based on the notion that digital technology is a product of the dominant social imaginary of instrumental rationality that envelops our social-historical environment [Floridi 2023] by transforming it into a semi-digital sphere of telepresence. AI as a digital system has no interiority, hence neither intentionality. In terms of Digital Humanism, at the beginning and end of the system are human subjects and intentions with social significance performing institutional acts by means of technology.

    In the beginning of the year, February 2025, the DISCO Network of researchers based in the U.S.A. released their book “Technoskepticism, Between Possibility and Refusal” (Stanford University Press 2025), where they advocate for a “survival strategy for marginalized groups navigating the space between “possibility” (using tech for care) and “refusal” (rejecting extractive systems).” They focus on systemic inequity and the lived experience of marginalized groups in the United States, shedding light on the use of technology to reinforce racist and colonial power structures. Their interpretation of technoskepticism is regional, topical, and aspires to empower communities to reclaim technology for their own interest, to bring forth “Justice within the Glitch”.

    Nevertheless, besides sharing a common ground, there are differences in reference and scope between the DISCO Network’s interpretation of technoskepticism and my own. The DISCO Network’s version of technoskepticism is more specific to identity and lived experience in the US context (race, disability, gender) and is primarily about survival and care in the face of an unjust system. Their critique is primarily sociological and ethical, focusing on very important but regional issues like algorithmic bias, data extraction from vulnerable bodies, and surveillance, while posing the key question: How does technology disproportionately affect marginalized and historically oppressed communities?

     My own approach to technoskepticism is more ontological and political, rooted in the political philosophy of autonomy. I try to address the question: What does AI do to the core human capacity for self-determination and creating meaning (Autonomy)?

    I focus on phenomena of the social imaginary like the replacement of political reason with technical calculation, that give rise to new forms of heteronomy (rule by external, non-human source) and the fear of social collapse into Digital Barbarism.

    Digital Barbarism is the ultimate loss of Autonomy—our capacity as human beings to create our own laws, our own values, and our own collective meaning. AI, or “Digital Reasoning,” reduces the messy, complex, and unpredictable realm of human affairs (ethics, politics, culture) into calculable, deterministic variables. When collective decisions are delegated to the algorithm, citizens become subjects of Heteronomy—they are ruled by a non-human logic that they did not create and cannot contest.

    The DISCO Network’s critique is crucial for understanding who the current AI system harms, but it often stops short of asking what the system itself is doing to our political humanity. This is the question at the heart of the European philosophical tradition. In my view, the meaning of technoskepticism is reclaiming the logos and the polis, subjecting technology to direct, public, democratic control.

    This is decisive, given the ethical problems that AI technology raises. While we must continue to argue for an ethical framework in AI design and implementation and support global efforts to press governments into legislating a common set of rules and regulations across AI research and production, we should always keep in mind that the social-historical conditions are not favorable. Technology is dependent on authority and by definition authority prioritizes means of domination over common well-being. Ethics is dependent on politics on a deeper, institutional level and the balance of power shifts towards unregulated AI in terms of financial and political capital and given the ignorance of the broader public on issues of tech regulations.

    During the last year, we have stood witness to political authority overcoming legislative barriers in favor of AI enterprises, but also directly attacking institutions of critical research and established ethical committees while using AI tools to influence public opinion and project imaginary power.

    We should acknowledge that AI does not care about Ethics, because it is dependent on political authority that can easily shift any ethical responsibility evading legal repercussions.

    We should acknowledge that AI does not care about ethics, because nothing ethical is intrinsic to digital technology. This is the reason why we should ponder on the political framework and the possible limitations that should be set to digital authority by civil society and grassroots social movements. This is why we need a political, democratic view of technoskepticism.

    We could describe the core principles of Democratic Technoskepticism as follows:

    1. Technology is not neutral: Technology reinforces power structures by embedding existing social, economic, and political hierarchies into its design, deployment and control. It’s not just about who builds the tech—it’s about who benefits from it, who governs it, and whose values shape it.
    2. This lead to the need for critical engagement with the issues of technology: Instead of trusting tech because it’s new or rejecting it because it’s disruptive, we may ask deeper questions: Who benefits from this application? What values does it embed? What is the overall cost for its implementation on a social, ethical and environmental level?
    3. Artificial “Intelligence” is not Intelligence: We recognize intelligence as a natural property that defines subjectivity, intentionality and rationality. However, subjectivity is a quality of the living being-for-itself.
    4. A digital mechanism is, by definition, not a naturally self-creating individual but a modular inanimate object, a being-in-itself, with no subjective interiority. Current AI models based on LLM architecture are statistical pattern recognition machines. But even the alternative, world AI and neuro-symbolic AI architecture, suggested by Prof. Gary Marcus, would produce logistical algorithmic reasoning machines–in neither case a sentient self-referential conscious being.
    5. Technoskepticism pushes back against the idea that efficiency, optimization, or scalability should be the ultimate goals of technology. It advocates for human-centered values, creativity, autonomy, and democratic public control of technology.
    6. On this ground, Technoskepticism is based on Digital Humanism and the resistance to Digital Barbarism. Technoskepticism sees blind surrender to technological systems—especially those governed by opaque corporate and political interests—as the form of modern barbarism.

    The solution must be political; therefore, fixing the symptom (bias, data extraction) is insufficient. We must confront the fundamental political form of the technology. Democratic Technoskepticism is the necessary intermediate path:

    – It rejects the Technophilic idea that technological progress is inherently good.

    – It rejects the Technophobic idea that we must abandon all machines.

    – It demands that every significant technological choice must be wrestled away from technical experts and corporate interests and subjected to direct democratic deliberation by the citizenry. Technology must serve the polis, not the profit motive.

    The horizon of democratic autonomy that spreads from care and justice to political liberation is what makes technoskepticism a powerful new direction for the debate. But we must always keep in mind that technoskepticism is complementary to the political project of social autonomy, which requires actual political participation in the actual public time and space in terms of direct democracy, commoning, and social ecology. We should not forget that democracy is not just information.

    In conclusion

    In my view, democratic digital humanism requires a fundamental shift in both our conceptual understanding of technology and our political structures, challenging the prevailing techno-industrial complex.

    The key steps in a possible roadmap would involve:

    1. Overthrowing the Regime of Mythinformation: The first political priority is to challenge and dismantle the corporate and political propaganda (mythinformation) that fosters “technophilia” and presents AI as a neutral, all-solving force. This requires critical examination of AI’s metaphysical claims to “intelligence” or consciousness.
    2. Asserting Human Subjectivity and Agency: The roadmap underscores the indispensable role of the human subject—as creator, user, and signifier—at every stage of a digital system’s function. This means recognizing that natural intelligence is a uniquely human capacity that cannot be reduced to technical functions.
    3. Achieving Social and Individual Autonomy: The ultimate goal is to move from heteronomy (being governed by external rules or technological systems) to autonomy (self-governance). This involves people collectively creating the institutions and rules that govern their own lives, including the role of technology within society.
    4. Implementing Direct Democratic Control: The core of the political roadmap is a commitment to direct democracy. The ultimate question is political: “Who controls the providers of AI?”. This control must be vested in the people through participatory, grassroots democratic processes, rather than leaving it to corporations or centralized state bureaucracies.
    5. Integrating Theory with Praxis: The philosophical framework is designed to be an active guide for real-world application, linking philosophical inquiry with social movements and struggles for emancipation. The aim is to empower informed decision-making and contribute to a more democratic digital future.

    Democratic technoskepticism offers a vision where technological development is not an end in itself but a means to foster an autonomous society based on humanistic values, critical thought, and democratic self-governance.

     References:

    Castoriadis, C. (1987). The Imaginary Institution of Society, transl. K. Blamey, Polity Press 1987, New York.

    Descartes, R. (1909). Discourse on the method of rightly conducting the reason and seeking the truth in the sciences, edited by Charles W. Eliot. Published by P.F. Collier & Son, New York.

    Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press.

    Marcus, G. (2019). Rebooting AI, Pantheon Press, New York.

    Noutsos, P. (1992). Η Σοσιαλιστικη Σκέψη στην Ελλάδα, τ. Γ’, Gnosi ed., Athens.

    Schismenos, A. (2025). Artificial Intelligence and Barbarism: A Critique of Digital Reason Athens School, Athens.

    Varoufakis, Y. (2024). Technofeudalism What Killed Capitalism. Vintage Books, London.


    Conceptual Map:

    A structured mapping of “Artificial Intelligence and Barbarism”, tracing the dialectical paths between digital reason, algorithmic domination (Barbarism), and the potential for democratic, commons-based autonomy (Humanism).

    The post AI doesn’t care about Ethics: Why technoskepticism must be political first appeared on Aυτολεξεί.

    ]]>
    https://www.aftoleksi.gr/2025/12/26/ai-doesn-t-care-about-ethics-why-technoskepticism-must-be-political/feed/ 0 21706