Ολοένα και περισσότερες δημόσιες οντότητες σε όλο τον κόσμο χρησιμοποιούν αλγόριθμους για να βελτιώσουν τις πολιτικές και τη διαδικασία λήψης αποφάσεων με βάση τα δεδομένα. Αυτό μπορεί να οδηγήσει στη διόρθωση των προκαταλήψεων και στην αντιμετώπιση των ανισοτήτων.
Ωστόσο, τα ίδια δεδομένα μπορούν να χρησιμοποιηθούν και για να εκπαιδεύσουν αλγόριθμους που θα οδηγήσουν σε διακρίσεις κατά των γυναικών, των κοριτσιών και των μη δυαδικών ατόμων. Γι’ αυτό, οι κυβερνήσεις και οι εταίροι της κοινωνίας των πολιτών ερευνούν τις επιπτώσεις των αλγορίθμων στην ανοιχτή διακυβέρνηση και προσπαθούν να μειώσουν τις ανθρώπινες προκαταλήψεις, όπως αυτές που βασίζονται σε φύλο, φυλή, εθνικότητα, τάξη, ηλικία και άλλα δημογραφικά στοιχεία.
Στην πρόσφατη συνάντηση του Open Algorithms Network (Δίκτυο Ανοικτών Αλγορίθμων), μια ομάδα κυβερνήσεων από τον Καναδά, την Εσθονία, τη Νορβηγία , τη Σκωτία και το Ηνωμένο Βασίλειο και εκπρόσωποι της κοινωνίας των πολιτών, συζήτησαν τη σημασία της ένταξης της τεχνητής νοημοσύνης στη διακυβέρνηση. Οι περισσότεροι από τους συμμετέχοντες ,έχουν ήδη αρχίσει να εξετάζουν ζητήματα ισότητας, μεροληψίας και διακρίσεων στις αλγοριθμικές δεσμεύσεις τους στα σχέδια δράσης της OGP και σε όλες τις κυβερνητικές στρατηγικές για την τεχνητή νοημοσύνη. Πολλές από αυτές τις αλγοριθμικές δεσμεύσεις βασίζονται στην ιδέα ότι το άνοιγμα των δεδομένων και ο σχεδιασμός των αλγορίθμων είναι μια οδός για τη μείωση της προκατάληψης και των διακρίσεων, καθώς και ότι η διαδικασία συλλογής δεδομένων, ή σχεδιασμού είναι εξίσου σημαντική με το αποτέλεσμα.
Στο σχέδιο δράσης της Σκωτίας, για παράδειγμα, σημειώνεται το εξής: “Ο τρόπος με τον οποίο οι δημόσιες υπηρεσίες λαμβάνουν αποφάσεις χρησιμοποιώντας δεδομένα είναι εξίσου σημαντικός με τα δεδομένα που δημοσιεύουν. Αυτό περιλαμβάνει τη χρήση αξιόπιστης, ηθικής και χωρίς αποκλεισμούς Τεχνητής Νοημοσύνης, όπως περιγράφεται στη Στρατηγική Τεχνητής Νοημοσύνης της Σκωτίας”. Η Φιλανδία, ως ένα άλλο παράδειγμα, θα προετοιμάσει ένα γενικό σύνολο ηθικών κατευθυντήριων γραμμών για την κυβέρνηση, ώστε να διασφαλιστεί ότι τα συστήματα τεχνητής νοημοσύνης δεν ενσωματώνουν μοντέλα που εισάγουν άμεσα ή έμμεσα διακρίσεις.
Όπως φαίνεται, η αλγοριθμική διαφάνεια είναι ένας αναδυόμενος τομέας δεσμεύσεων για τα μέλη του OGP, με τις περισσότερες δεσμεύσεις να προέρχονται από χώρες του παγκόσμιου Βορρά. Λίγες αναφέρονται ρητά σε έμφυλες εμπειρίες και όχι σε ευρύτερες διακρίσεις ή προκαταλήψεις. Καθώς η τεχνολογία ΤΝ γίνεται όλο και πιο διαθέσιμη και ενσωματώνεται στην κυβερνητική πολιτική και τις διαδικασίες, οι φορείς της ανοικτής διακυβέρνησης πρέπει να έχουν εξαρχής επίγνωση των πιθανών ζητημάτων διακρίσεων και να ενσωματώνουν ανοικτές, διαφανείς και δίκαιες προσεγγίσεις για να βοηθήσουν στον μετριασμό τους.
Τα μέλη του Δικτύου Ανοικτών Αλγορίθμων συνιστούν στους φορείς της ανοικτής διακυβέρνησης:
1. Να ανοίξουν τις στρατηγικές και τα έργα αυτοματισμού στο κοινό για να βελτιώσουν την αλγοριθμική διαφάνεια και τη λογοδοσία για περισσότερες κοινότητες
Όπου είναι δυνατόν, τα μέλη μπορούν να αναζητήσουν ευκαιρίες για τη θέσπιση μέτρων μέσω πολιτικών, νόμων, κανονισμών ή άλλων μεταρρυθμίσεων για την προώθηση της αλγοριθμικής διαφάνειας. Αυτό μπορεί να λάβει τη μορφή της καθιέρωσης αλγοριθμικών πολιτικών ή στρατηγικών ανοικτών και προσβάσιμων στο κοινό, της δημοσίευσης πληροφοριών σχετικά με επερχόμενα έργα για επανεξέταση και σχολιασμό ή της προληπτικής εμπλοκής των επηρεαζόμενων φορέων γύρω από το σχεδιασμό και τη χρήση των αλγορίθμων.
Στον Καναδά, η οδηγία σχετικά με την αυτοματοποιημένη λήψη αποφάσεων περιλαμβάνει διάφορες απαιτήσεις διαφάνειας, όπως η ολοκλήρωση και δημοσίευση μιας εκτίμησης αλγοριθμικών επιπτώσεων (AIA), η παροχή ειδοποιήσεων και εξηγήσεων στους πελάτες ή το κοινό πριν και μετά τη λήψη αποφάσεων, η εξασφάλιση πρόσβασης στα στοιχεία ενός συστήματος (π.χ. για ελέγχους ή έρευνες), η δημοσιοποίηση του πηγαίου κώδικα, όπου χρειάζεται, και η τεκμηρίωση των αυτοματοποιημένων αποφάσεων.
Ενώ η οδηγία απαιτεί από τις υπηρεσίες να ελέγχουν τα δεδομένα που χρησιμοποιούνται από αυτοματοποιημένα συστήματα για ακούσια μεροληψία, η δημοσίευση των αποτελεσμάτων των ελέγχων μεροληψίας μπορεί να είναι δύσκολη λόγω κινδύνων για την ιδιωτική ζωή, την ασφάλεια ή την πνευματική ιδιοκτησία. Η προστασία της ιδιωτικής ζωής μιας μικρής δημογραφικής ομάδας, για παράδειγμα, μπορεί να έρθει σε σύγκρουση με τις προσπάθειες για την ανοικτή δοκιμή αλγορίθμων για μεροληψία, μια διαδικασία που θα μπορούσε να απαιτήσει ευαίσθητες προσωπικές πληροφορίες για τα άτομα που επηρεάζονται από την αυτοματοποίηση. Ενώ υπάρχουν στρατηγικές για την ανωνυμοποίηση δεδομένων όπως αυτό, αυτή η ένταση μπορεί να αποτελέσει πρόκληση για την ανάπτυξη μιας κοινής αντίληψης για δίκαιη και χωρίς αποκλεισμούς αλγοριθμική διαφάνεια στον δημόσιο τομέα.
Μια άλλη ευκαιρία είναι να συνδεθούν οι εθνικές αλγοριθμικές στρατηγικές ή πολιτικές με τις δεσμεύσεις της OGP για τη βελτίωση της δημόσιας δέσμευσης και διαβούλευσης, όπως έχουμε δει από μέλη όπως η Σκωτία και ο Καναδάς. Η κυβέρνηση της Σκωτίας συνέχισε να ανοίγει αλγοριθμικά προγράμματα μέσω δημόσιων προκλήσεων, όπως μια τρέχουσα πρόκληση σχετικά με την τεχνητή νοημοσύνη και την αναπηρία και την πρόσβαση χωρίς αποκλεισμούς στις δημόσιες υπηρεσίες.
2. Χρησιμοποιήστε αξιολογήσεις νωρίς στη διαδικασία σχεδιασμού για να κατανοήσετε πιθανές διαφορές μεταξύ των φύλων ή της ένταξης ή να ελέγξετε για ακούσιες προκαταλήψεις.
Οι αξιολογήσεις και οι κατευθυντήριες γραμμές μπορούν να χρησιμοποιηθούν για να βοηθήσουν τους φορείς του δημόσιου τομέα να εντοπίσουν και να μετριάσουν τους κινδύνους διακρίσεων και άλλων μορφών ανισότητας κατά το στάδιο του σχεδιασμού ενός έργου. Τα εργαλεία αυτά μπορεί να περιλαμβάνουν αξιολογήσεις φύλου, όπως η GBA Plus του Καναδά, ανάλυση πολιτικής οικονομίας ή αξιολογήσεις επιπτώσεων στα ανθρώπινα δικαιώματα, για να αναφέρουμε μόνο μερικά από αυτά. Τα μέλη συμφώνησαν ότι αυτά είναι καλύτερο να αναπτύσσονται νωρίς στη διαδικασία και να χρησιμοποιούνται επαναληπτικά καθ’ όλη τη διάρκεια ζωής μιας πολιτικής ή ενός προγράμματος.
Η κυβέρνηση του Καναδά επιδιώκει να ενισχύσει τις εγγυήσεις της οδηγίας για την αυτοματοποιημένη λήψη αποφάσεων κατά των αποτελεσμάτων διακρίσεων για ιστορικά περιθωριοποιημένα άτομα ή ομάδες. Η εν εξελίξει τρίτη αναθεώρηση της οδηγίας προτείνει μια νέα απαίτηση που επιβάλλει την ολοκλήρωση μιας ανάλυσης με βάση το φύλο Plus κατά την ανάπτυξη ή την τροποποίηση ενός αυτοματοποιημένου συστήματος. Αυτό θα προωθούσε μια διατομεακή προσέγγιση στο σχεδιασμό των έργων αυτοματοποίησης, επιτρέποντας στις υπηρεσίες να λαμβάνουν υπόψη πολλαπλούς παράγοντες ταυτότητας, όπως το φύλο, το φύλο, η γεωγραφία και η γλώσσα, όταν αξιολογούν τις πιθανές επιπτώσεις ενός συστήματος στα άτομα. Η κυβέρνηση εργάζεται επίσης για την επέκταση της AIA ώστε να αξιολογούνται οι πιθανές επιπτώσεις των έργων αυτοματοποίησης στα άτομα με αναπηρία.
Παρομοίως, στο Ηνωμένο Βασίλειο , οι πολιτικές πρέπει να υποβάλλονται σε αξιολόγηση των επιπτώσεων της ισότητας, η οποία μπορεί να βοηθήσει στον εντοπισμό ευκαιριών για την καλύτερη προώθηση της ισότητας ή στον εντοπισμό πιθανών διακρίσεων ή αρνητικών επιπτώσεων μιας πολιτικής ή υπηρεσίας. Αυτό καλύπτει μια ποικιλία προστατευόμενων δημογραφικών στοιχείων όπως η ηλικία, η αναπηρία, η αλλαγή φύλου, ο γάμος και η συμβίωση, η εγκυμοσύνη και η μητρότητα, η φυλή, η θρησκεία ή οι πεποιθήσεις, το φύλο και ο σεξουαλικός προσανατολισμός.
Στη Φινλανδία, αν και η ισχύουσα νομοθεσία προστατεύει την ισότητα και τη μη διάκριση, η πρώτη αξιολόγηση του κυβερνητικού προγράμματος τεχνητής νοημοσύνης ζήτησε την υιοθέτηση ηθικών κατευθυντήριων γραμμών για την ανάπτυξη αλγορίθμων και αρχιτεκτονικών ώστε να αποφεύγονται προκαταλήψεις και δυσμενείς επιπτώσεις στην ανθρώπινη αξιοπρέπεια και ισότητα. Η δέσμευσή τους προτείνει την υιοθέτηση νέων μεθόδων συλλογής και χρήσης δεδομένων, την παροχή πιο ποιοτικών ανοικτών κυβερνητικών δεδομένων, την αναθεώρηση των κανονισμών, τη χρηματοδότηση μακροπρόθεσμης διεπιστημονικής έρευνας σχετικά με τους κινδύνους της ΤΝ, την καλύτερη ευαισθητοποίηση των κυβερνητικών υπαλλήλων σε θέματα ΤΝ και δημόσιες συζητήσεις γύρω από την ΤΝ.
Αν και οι ηθικές κατευθυντήριες γραμμές και οι αξιολογήσεις μπορούν να παρέχουν κρίσιμες πληροφορίες για πιθανές ευκαιρίες ένταξης ή τυφλά σημεία στην ΤΝ, δεν αποτελούν αυτοσκοπό. Τα συστήματα ΤΝ – και τα δεδομένα που τα στηρίζουν – πρέπει επίσης να παρακολουθούνται τακτικά για να διασφαλίζεται η ποιότητα και ότι τα αποτελέσματα δεν είναι ακούσια μεροληπτικά σε βάρος δημογραφικών ομάδων όπως οι γυναίκες και τα άτομα με διαφορετικό φύλο.
3. Χρήση ανοικτών δεδομένων για την επίτευξη αντιπροσωπευτικού και υπεύθυνου σχεδιασμού, λαμβάνοντας υπόψη την προστασία της ιδιωτικής ζωής και τη διαχείριση των δεδομένων.
Τα καλύτερα ανοικτά και ενημερωμένα με βάση το φύλο δεδομένα μπορούν να βελτιώσουν τη λήψη αποφάσεων, τη διαφάνεια και τη λογοδοσία γύρω από τη χάραξη πολιτικής , τους προϋπολογισμούς και τις δημόσιες υπηρεσίες. Αυτό περιλαμβάνει αντιπροσωπευτικά δεδομένα που μπορούν να τροφοδοτήσουν αλγορίθμους και να βελτιώσουν τα αποτελέσματα αυτοματοποιημένων αποφάσεων, μαζί με καλύτερα δεδομένα που παράγονται από τους πολίτες. Για παράδειγμα, η Φινλανδία ενισχύει την πρόσβαση του κοινού στις πληροφορίες βελτιώνοντας την ποιότητα και τη χρηστικότητα των ανοικτών δεδομένων.
Το πότε και πώς θα χρησιμοποιηθούν, θα αναλυθούν και θα αποθηκευτούν ευαίσθητα δεδομένα, όπως το φύλο, το φύλο και ο σεξουαλικός προσανατολισμός, αποτελούν συνεχή ζητήματα προστασίας της ιδιωτικής ζωής. Μια πιθανή λύση που προτείνεται από το Ηνωμένο Βασίλειο είναι η χρήση διαμεσολαβητών δεδομένων, έμπιστων εταίρων που μπορούν να διευκολύνουν την πρόσβαση και την ανταλλαγή δεδομένων και να υποστηρίξουν τις κυβερνήσεις στη διαχείριση μέρους αυτού του κινδύνου και στον πιθανό μετριασμό της προκατάληψης. Μπορούν επίσης να δώσουν τη δυνατότητα στα άτομα και τις οντότητες να έχουν μεγαλύτερη εικόνα για το ποια δεδομένα συλλέγονται και πότε και πώς χρησιμοποιούνται.
Πηγές άρθρου : https://digigov.grnet.gr/ , https://www.opengovpartnership.org