20.8 C
Athens
27/04/2024
Biztech

Παγκόσμια πρωτιά: Το πρώτο ολοκληρωμένο νομικό πλαίσιο για τη χρήση της ΑΙ θεσπίζει η ΕΕ

Η πράξη για την Τεχνητή Νοημοσύνη που επετεύχθη στις 9 Δεκεμβρίου, θεσπίζει ειδικούς κανόνες για μοντέλα AI γενικού σκοπού, τα οποία θα διασφαλίζουν τη διαφάνεια σε όλα τα στάδια της αξιακής αλυσίδας. Για πολύ ισχυρά μοντέλα που μπορεί να ενέχουν συστημικούς κινδύνους θα ισχύουν πρόσθετες δεσμευτικές υποχρεώσεις σχετικά με τη διαχείριση των κινδύνων και την παρακολούθηση των σοβαρών περιστατικών, με αξιολόγηση μοντέλων και ανταγωνιστικές δοκιμές. Οι νέες αυτές υποχρεώσεις θα τεθούν σε εφαρμογή με κώδικες ορθών πρακτικών που θα αναπτυχθούν από τον κλάδο, την επιστημονική κοινότητα, την κοινωνία των πολιτών και άλλα ενδιαφερόμενα μέρη, από κοινού με την Επιτροπή.

Όσον αφορά τη διακυβέρνηση, οι αρμόδιες εθνικές αρχές εποπτείας της αγοράς θα εποπτεύουν την εφαρμογή των νέων κανόνων σε εθνικό επίπεδο, ενώ η σύσταση μιας νέας ευρωπαϊκής Υπηρεσίας ΤΝ εντός της Ευρωπαϊκής Επιτροπής θα διασφαλίζει τον συντονισμό σε ευρωπαϊκό επίπεδο. Η νέα Υπηρεσία ΤΝ θα εποπτεύει επίσης την εφαρμογή και την επιβολή των νέων κανόνων σχετικά με τα μοντέλα ΤΝ γενικού σκοπού. Μαζί με τις εθνικές αρχές εποπτείας της αγοράς, η Υπηρεσία ΤΝ θα είναι ο πρώτος φορέας παγκοσμίως που θα επιβάλλει δεσμευτικούς κανόνες για την ΤΝ και, ως εκ τούτου, αναμένεται να καταστεί διεθνές σημείο αναφοράς. Όσον αφορά τα μοντέλα γενικού σκοπού, κεντρικό ρόλο θα έχει μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων η οποία θα εκδίδει προειδοποιήσεις για τους συστημικούς κινδύνους και θα συμβάλλει στην ταξινόμηση και τη δοκιμή των μοντέλων.

Η πρόεδρος της Ευρωπαϊκής Επιτροπής, Ούρσουλα φον ντερ Λάιεν, δήλωσε σχετικά: «Η τεχνητή νοημοσύνη αλλάζει ήδη την καθημερινή μας ζωή — κι αυτή δεν είναι παρά μόνο η αρχή. Αν χρησιμοποιηθεί με σύνεση και σε ευρεία κλίμακα, η τεχνητή νοημοσύνη υπόσχεται τεράστια οφέλη για την οικονομία και την κοινωνία μας. Ως εκ τούτου, χαιρετίζω θερμά τη σημερινή πολιτική συμφωνία του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου σχετικά με την πράξη για την τεχνητή νοημοσύνη. Η πράξη της ΕΕ για την AI είναι το πρώτο ολοκληρωμένο νομικό πλαίσιο για την τεχνητή νοημοσύνη παγκοσμίως. Η στιγμή λοιπόν είναι ιστορική. Η πράξη αυτή μεταφέρει τις ευρωπαϊκές αξίες σε μια νέα εποχή. Η σημερινή συμφωνία, εστιάζοντας τη νομοθεσία σε συγκεκριμένους κινδύνους, θα προωθήσει την υπεύθυνη καινοτομία στην Ευρώπη. Με τη εγγύηση της ασφάλειας και των θεμελιωδών δικαιωμάτων των πολιτών και των επιχειρήσεων, θα στηρίξει την ανάπτυξη, τη χρήση και τη διάδοση αξιόπιστης ΤΝ στην ΕΕ. Η πράξη μας για την ΤΝ θα συμβάλει σημαντικά στην ανάπτυξη παγκόσμιων κανόνων και αρχών για μια ανθρωποκεντρική ΤΝ».

Η ευρωπαϊκή προσέγγιση για μια αξιόπιστη ΑΙ

Οι νέοι κανόνες θα εφαρμόζονται άμεσα και με ενιαίο τρόπο σε όλα τα κράτη μέλη με βάση έναν διαχρονικό ορισμό της τεχνητής νοημοσύνης. Οι εν λόγω κανόνες ακολουθούν μια προσέγγιση με βάση τον κίνδυνο:

  • Ελάχιστος κίνδυνος: Η συντριπτική πλειονότητα των συστημάτων AI εμπίπτουν στην κατηγορία του ελάχιστου κινδύνου. Οι εφαρμογές ελάχιστου κινδύνου —όπως τα συστήματα συστάσεων ή τα φίλτρα ανεπιθύμητης αλληλογραφίας που βασίζονται στην τεχνητή νοημοσύνη— εξαιρούνται και δεν έχουν υποχρεώσεις, καθώς τα συστήματα αυτά ενέχουν ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα ή την ασφάλεια των πολιτών. Οι εταιρείες μπορούν, ωστόσο, να δεσμεύονται οικειοθελώς από πρόσθετους κώδικες δεοντολογίας για τα εν λόγω συστήματα AI.
  • Υψηλός κίνδυνος: Τα συστήματα AI που χαρακτηρίζονται υψηλού κινδύνου θα πρέπει να πληρούν αυστηρές απαιτήσεις — π.χ. συστήματα μετριασμού του κινδύνου, υψηλή ποιότητα συνόλων δεδομένων, καταγραφή δραστηριοτήτων, λεπτομερή τεκμηρίωση, σαφή πληροφόρηση για τους χρήστες, ανθρώπινη εποπτεία και υψηλό επίπεδο αξιοπιστίας, ακρίβειας και κυβερνοασφάλειας. Τα ρυθμιστικά δοκιμαστήρια θα προαγάγουν την υπεύθυνη καινοτομία και την ανάπτυξη συμμορφούμενων συστημάτων AI.

Παραδείγματα τέτοιων συστημάτων AI υψηλού κινδύνου είναι ορισμένες υποδομές ζωτικής σημασίας, π.χ. στους τομείς του νερού, του αερίου και της ηλεκτρικής ενέργειας· των ιατροτεχνολογικών προϊόντων· των συστημάτων για τον καθορισμό της πρόσβασης σε εκπαιδευτικά ιδρύματα ή για την πρόσληψη εργαζομένων· ή ορισμένων συστημάτων που χρησιμοποιούνται στο πεδίο της επιβολής του νόμου, του ελέγχου των συνόρων, της απονομής δικαιοσύνης και των δημοκρατικών διαδικασιών. Επίσης, υψηλού κινδύνου θεωρούνται και τα συστήματα βιομετρικής ταυτοποίησης, κατηγοριοποίησης προσώπων και αναγνώρισης συναισθημάτων.

  • Μη αποδεκτός κίνδυνος: Τα συστήματα AI που θεωρείται ότι συνιστούν σαφή απειλή για τα θεμελιώδη δικαιώματα των ατόμων θα απαγορεύονται. Εδώ περιλαμβάνονται τα συστήματα ή οι εφαρμογές AI που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών, όπως τα παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά ή τα συστήματα που επιτρέπουν την “κοινωνική βαθμολόγηση” από κυβερνήσεις και εταιρείες, καθώς και ορισμένες εφαρμογές προληπτικής αστυνόμευσης. Επίσης, ορισμένες χρήσεις βιομετρικών συστημάτων θα απαγορεύονται, όπως για παράδειγμα τα συστήματα αναγνώρισης συναισθημάτων που χρησιμοποιούνται σε χώρους εργασίας, καθώς και ορισμένα συστήματα κατηγοριοποίησης ανθρώπων ή η εξ αποστάσεως και σε πραγματικό χρόνο βιομετρική ταυτοποίηση για σκοπούς επιβολής του νόμου σε δημόσια προσβάσιμους χώρους (με περιορισμένες εξαιρέσεις).
  • Ειδικός κίνδυνος διαφάνειας: Όταν χρησιμοποιούνται συστήματα AI όπως τα διαλογικά ρομπότ, οι χρήστες και οι χρήστριες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχανή. Τα προϊόντα βαθυπαραποίησης και τα άλλα είδη περιεχομένου που παράγεται από AI θα πρέπει να επισημαίνονται ως τέτοια και οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται συστήματα βιομετρικής κατηγοριοποίησης ή αναγνώρισης συναισθημάτων. Επιπλέον, οι πάροχοι θα πρέπει να σχεδιάζουν τα συστήματά τους με τρόπο ώστε περιεχόμενο που είναι συνθετικό (ήχος, βίντεο, κείμενο ή εικόνα) να επισημαίνεται ως τέτοιο με μηχαναγνώσιμο μορφότυπο και να είναι ανιχνεύσιμη η τεχνητή του παραγωγή ή παραποίηση.

Πρόστιμα

Στις εταιρείες που δεν συμμορφώνονται με τους κανόνες θα επιβάλλεται πρόστιμο. Τα πρόστιμα θα κυμαίνονται ως εξής: 35 εκατ. ευρώ ή 7 % του συνολικού ετήσιου κύκλου εργασιών (όποιο είναι υψηλότερο) για παραβιάσεις απαγορευμένων εφαρμογών ΤΝ, 15 εκατ. ευρώ ή 3 % για παραβάσεις άλλων υποχρεώσεων και 7,5 εκατ. ευρώ ή 1,5 % για παροχή ανακριβών πληροφοριών. Για διοικητικά πρόστιμα εις βάρος ΜΜΕ και νεοφυών επιχειρήσεων σε περιπτώσεις παραβιάσεων της πράξης για την AI προβλέπονται πιο αναλογικά ανώτατα όρια.

Τεχνητή νοημοσύνη γενικού σκοπού

Η πράξη για την AI θεσπίζει ειδικούς κανόνες για μοντέλα AI γενικού σκοπού, οι οποίοι θα διασφαλίζουν τη διαφάνεια σε όλα τα στάδια της αξιακής αλυσίδας. Για πολύ ισχυρά μοντέλα που μπορεί να ενέχουν συστημικούς κινδύνους θα ισχύουν πρόσθετες δεσμευτικές υποχρεώσεις σχετικά με τη διαχείριση των κινδύνων και την παρακολούθηση των σοβαρών περιστατικών, με αξιολόγηση μοντέλων και ανταγωνιστικές δοκιμές. Οι νέες αυτές υποχρεώσεις θα τεθούν σε εφαρμογή με κώδικες ορθών πρακτικών που θα αναπτυχθούν από τον κλάδο, την επιστημονική κοινότητα, την κοινωνία των πολιτών και άλλα ενδιαφερόμενα μέρη, από κοινού με την Επιτροπή.

Όσον αφορά τη διακυβέρνηση, οι αρμόδιες εθνικές αρχές εποπτείας της αγοράς θα εποπτεύουν την εφαρμογή των νέων κανόνων σε εθνικό επίπεδο, ενώ η σύσταση μιας νέας ευρωπαϊκής Υπηρεσίας AI εντός της Ευρωπαϊκής Επιτροπής θα διασφαλίζει τον συντονισμό σε ευρωπαϊκό επίπεδο. Η νέα Υπηρεσία AI θα εποπτεύει επίσης την εφαρμογή και την επιβολή των νέων κανόνων σχετικά με τα μοντέλα AI γενικού σκοπού. Μαζί με τις εθνικές αρχές εποπτείας της αγοράς, η Υπηρεσία AI θα είναι ο πρώτος φορέας παγκοσμίως που θα επιβάλλει δεσμευτικούς κανόνες για την AI και, ως εκ τούτου, αναμένεται να καταστεί διεθνές σημείο αναφοράς. Όσον αφορά τα μοντέλα γενικού σκοπού, κεντρικό ρόλο θα έχει μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων η οποία θα εκδίδει προειδοποιήσεις για τους συστημικούς κινδύνους και θα συμβάλλει στην ταξινόμηση και τη δοκιμή των μοντέλων.

Επόμενα βήματα

Η πολιτική συμφωνία πρέπει πλέον να εγκριθεί επισήμως από το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο και θα τεθεί σε ισχύ 20 ημέρες μετά τη δημοσίευσή της στην Επίσημη Εφημερίδα. Η πράξη για την AI θα αρχίσει να παράγει έννομα αποτελέσματα δύο έτη μετά την έναρξη ισχύος της, εκτός από ορισμένες ειδικές διατάξεις: Οι απαγορεύσεις θα τεθούν σε ισχύ ήδη στους 6 μήνες, ενώ οι κανόνες για την AI γενικού σκοπού θα αρχίσουν να εφαρμόζονται μετά από 12 μήνες.

Προκειμένου να καλυφθεί η μεταβατική περίοδος έως τη γενική εφαρμογή του κανονισμού, η Επιτροπή θα δρομολογήσει ένα σύμφωνο για την AI. Σε αυτό θα συμπράττουν προγραμματιστές AI από την Ευρώπη και από όλον τον κόσμο, οι οποίοι δεσμεύονται οικειοθελώς να εφαρμόσουν βασικές υποχρεώσεις της πράξης για την AI πριν από τις νόμιμες προθεσμίες.

Σχετικά άρθρα

Μιχάλης Μπλέτσας: “Η ψηφιοποίηση άλλαξε τη νοοτροπία των Ελλήνων”

Giorgos Athanassiadis

Intrasoft: Πέντε νέα έργα ύψους 1,755 εκατ. ευρώ

Kitriniaris

Πεδίο δόξης λαμπρό η αγορά του smart home

Giorgos Athanassiadis

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία χρήσης. Αποδοχή Περισσότερα