ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Ανοιχτή Τεχνητή Νοημοσύνη: Η Νέα Έκθεση του ΟΟΣΑ και οι Προκλήσεις της

Η ραγδαία πρόοδος της τεχνητής νοημοσύνης (AI) και ιδιαίτερα των μοντέλων θεμελίωσης (foundation models) έχει αναζωπυρώσει τη συζήτηση γύρω από το πόσο «ανοιχτά» πρέπει να είναι αυτά τα συστήματα. Η παράδοση του ανοικτού λογισμικού (open source software) υπήρξε καταλύτης και για την AI, ωστόσο το ίδιο το περιβάλλον των αλγορίθμων, των δεδομένων και των «βαρών» (model weights) δημιουργεί νέες προκλήσεις.

Η μελέτη του ΟΟΣΑ «AI Openness: A Primer for Policymakers» (Αύγουστος 2025) επιχειρεί να προσφέρει ένα σαφές πλαίσιο κατανόησης των όρων και των διαβαθμίσεων της «ανοιχτότητας» στην AI, να καταγράψει τις παγκόσμιες τάσεις, και να αναδείξει τα οφέλη αλλά και τους κινδύνους από τη δημοσιοποίηση των βαρών των μοντέλων θεμελίωσης.

Τι σημαίνει «ανοιχτή» τεχνητή νοημοσύνη

  • Υπάρχει κώδικας εκπαίδευσης (training) και κώδικας εκτέλεσης (inference), που μπορούν να δημοσιοποιηθούν ανεξάρτητα.
  • Τα βάρη του μοντέλου (trained weights) και τα δεδομένα εκπαίδευσης αποτελούν ξεχωριστές συνιστώσες, οι οποίες μπορεί να είναι ανοιχτές ή κλειστές.

Ο όρος «open source» προέρχεται από το λογισμικό, όπου η δημοσίευση του πηγαίου κώδικα συνοδεύεται από συγκεκριμένες άδειες χρήσης. Στην AI, όμως, η πραγματικότητα είναι πιο σύνθετη:

Επομένως, το να χαρακτηρίζεται ένα μοντέλο «open source» επειδή παρέχει μόνο τα βάρη του είναι παραπλανητικό. Ο ΟΟΣΑ προτείνει τον όρο «open-weight models» για τα μοντέλα θεμελίωσης των οποίων τα εκπαιδευμένα βάρη διατίθενται δημόσια.

Βαθμίδες ανοιχτότητας

Η ανοιχτότητα δεν είναι δυαδική αλλά φάσμα: από πλήρως κλειστά συστήματα έως πλήρως ανοικτά. Το Linux Foundation προτείνει τρία επίπεδα (Model Openness Framework):

  • Class III – Open Model: δημοσιοποίηση αρχιτεκτονικής, παραμέτρων και βασικής τεκμηρίωσης.
  • Class II – Open Tooling: προσθήκη κώδικα εκπαίδευσης, αξιολόγησης και σημαντικών συνόλων δεδομένων.
  • Class I – Open Science: πλήρης διαφάνεια, συμπεριλαμβανομένων ακατέργαστων δεδομένων, ενδιάμεσων checkpoint και αναλυτικών αρχείων.

Όσο περισσότερα συστατικά δίνονται στη δημοσιότητα, τόσο ευκολότερη γίνεται η αναπαραγωγή και η προσαρμογή του μοντέλου από τρίτους.

Σημασία της αδειοδότησης

Η επιλογή άδειας (π.χ. Apache 2.0, MIT ή πιο «copyleft» τύποι Creative Commons) καθορίζει ποιος και πώς μπορεί να χρησιμοποιεί, να τροποποιεί ή να εμπορικοποιεί ένα μοντέλο. Οι άδειες επηρεάζουν την ταχύτητα και την κατεύθυνση της καινοτομίας αλλά και την πιθανότητα κακόβουλης χρήσης.

Εξέλιξη των μοντέλων με ανοικτά βάρη

Από το 2023 η προσφορά μοντέλων θεμελίωσης αυξάνεται εκθετικά. Σύμφωνα με τη βάση δεδομένων AIKoD του ΟΟΣΑ, έως τον Απρίλιο 2025 πάνω από το 55 % των διαθέσιμων εμπορικά μοντέλων είναι open-weight.

  • Οι Ηνωμένες Πολιτείες ηγούνται στην ανάπτυξη, ακολουθούν η Κίνα και η Γαλλία.
  • Ως πάροχοι υπηρεσιών (cloud hosting) ξεχωρίζουν επίσης οι Κάτω Χώρες και η Σιγκαπούρη, δείχνοντας ότι η φιλοξενία δεν ταυτίζεται απαραίτητα με τον τόπο ανάπτυξης.
  • Η ποιότητα των ανοιχτών μοντέλων, ειδικά στα text-to-text, έχει βελτιωθεί θεαματικά από τις αρχές του 2024.

Οφέλη της ανοιχτής διάθεσης βαρών

Η μελέτη απαριθμεί ποικίλα οφέλη, ενδεικτικά:

  • Επιτάχυνση καινοτομίας: οι ερευνητές και οι επιχειρήσεις μπορούν να χτίσουν πάνω σε υπάρχουσες τεχνολογίες αντί να ξεκινούν από το μηδέν, μειώνοντας κόστος και χρόνο.
  • Εξωτερικός έλεγχος: η ανοιχτή πρόσβαση διευκολύνει ανεξάρτητους ελέγχους, ανίχνευση μεροληψιών ή σφαλμάτων και ενίσχυση της διαφάνειας.
  • Ανάπτυξη ταλέντου: δίνει τη δυνατότητα σε φοιτητές, ερευνητές και νεοφυείς επιχειρήσεις να πειραματιστούν με τεχνολογία αιχμής, περιορίζοντας το «ψηφιακό χάσμα».
  • Υιοθέτηση σε ευαίσθητα περιβάλλοντα: οργανισμοί που διαχειρίζονται ευαίσθητα δεδομένα μπορούν να «τρέχουν» μοντέλα τοπικά, χωρίς εξάρτηση από τρίτους παρόχους.
  • Ενίσχυση ασφάλειας: οι «κόκκινες ομάδες» (red teams) μπορούν να δοκιμάζουν ρεαλιστικά σενάρια κυβερνοεπιθέσεων χρησιμοποιώντας τα ίδια εργαλεία με δυνητικούς επιτιθέμενους.

Κίνδυνοι και προκλήσεις

Παρά τα οφέλη, οι κίνδυνοι είναι σοβαροί:

  • Κακόβουλη χρήση: δυνατότητα δημιουργίας deepfakes, CSAM/NCII, αυτοματοποιημένων επιθέσεων phishing, ακόμη και πιθανής κατάχρησης σε βιολογικά/χημικά συμφραζόμενα.
  • Εξάπλωση τρωτών σημείων: τεχνικές jailbreak ή adversarial attacks που αναπτύσσονται πάνω σε ανοικτά βάρη μπορεί να εφαρμοστούν και σε κλειστά μοντέλα.
  • Παραβίαση πνευματικών δικαιωμάτων και ιδιωτικότητας: τα μοντέλα μπορεί να «απομνημονεύουν» προστατευμένο υλικό ή προσωπικά δεδομένα, τα οποία είναι ευκολότερο να εξαχθούν όταν τα βάρη είναι δημόσια.
  • Δυσκολία ανάκλησης: μόλις κυκλοφορήσουν τα βάρη, είναι πρακτικά αδύνατο να αποσυρθούν πλήρως ή να προστεθούν εκ των υστέρων νέες «ασφάλειες».
  • Μη προβλέψιμες αυτόνομες χρήσεις: τα μεγάλα μοντέλα μπορούν να συνδεθούν με εξωτερικά εργαλεία, αποκτώντας ιδιότητες «πρακτόρων» (agents) με απρόβλεπτες αλληλεπιδράσεις.

Ανάλυση οριακού (marginal) οφέλους και ρίσκου

Ο ΟΟΣΑ προτείνει οι αποφάσεις να βασίζονται σε οριακή αξιολόγηση:

  • Ποιο είναι το επιπλέον όφελος από τη δημοσιοποίηση των βαρών σε σχέση με υπάρχοντα εργαλεία;
  • Ποιος είναι ο πρόσθετος κίνδυνος έναντι των ήδη διαθέσιμων τεχνολογιών;

Αυτό βοηθά να αποφευχθεί το «φαινόμενο του βρασμένου βατράχου», δηλαδή η σταδιακή αύξηση ανεκτικότητας σε κινδύνους καθώς κάθε νέο μοντέλο συγκρίνεται μόνο με το αμέσως προηγούμενο.

Συμπεράσματα και προτάσεις πολιτικής

Η έκθεση καταλήγει ότι:

  • Η ανοιχτότητα στα βάρη των μοντέλων δεν είναι από μόνη της καλή ή κακή· τα αποτελέσματα εξαρτώνται από το πλαίσιο χρήσης.
  • Οι αποφάσεις πρέπει να λαμβάνονται κατά περίπτωση, με ολιστική ανάλυση ρίσκου και συνεχώς προσαρμοζόμενο πλαίσιο.
  • Η μείωση του κόστους υπολογιστικών πόρων και οι ολοένα πιο προσιτές τεχνικές fine-tuning αυξάνουν τόσο τις ευκαιρίες όσο και τους κινδύνους.
  • Απαιτείται διεθνής συνεργασία, καθώς η ανάπτυξη και φιλοξενία μοντέλων είναι παγκόσμιο φαινόμενο.

Το κείμενο του ΟΟΣΑ δεν δίνει μια απλή «συνταγή» για το αν πρέπει ή όχι να ανοίγονται τα βάρη των μοντέλων τεχνητής νοημοσύνης. Προσφέρει όμως ένα ολοκληρωμένο εργαλείο σκέψης: ορισμούς, δεδομένα, πλεονεκτήματα, απειλές και –κυρίως– μια μεθοδολογία αξιολόγησης που μπορεί να καθοδηγήσει κυβερνήσεις, ρυθμιστικές αρχές και οργανισμούς.

Σε έναν κόσμο όπου η τεχνητή νοημοσύνη εξελίσσεται ταχύτερα από κάθε προηγούμενη τεχνολογία, η ισορροπία ανάμεσα στην ανοιχτότητα και στη υπεύθυνη διακυβέρνηση καθίσταται κρίσιμη για τη διασφάλιση ότι τα οφέλη θα διαχυθούν ευρέως, χωρίς να ενισχυθούν οι κίνδυνοι για την κοινωνία και την ασφάλεια.

Διαβάστε το πλήρες κείμενο της μελέτης εδώ

Leave a Comment