Published On: July 31, 2024Tags: , ,

Στις 12 Ιουλίου του 2024 η Ευρωπαϊκή Ένωση δημοσίευσε τον Κανονισμό 2024/1689 για την Τεχνητή Νοημοσύνη, τον πρώτο ολοκληρωμένο κανονισμό για το AI που έχει υιοθετηθεί από επίσημη ρυθμιστική Αρχή.

Την 1η Αυγούστου, ο Κανονισμός τίθεται σε ισχύ!

Σύμφωνα με τον Κανονισμό ως σύστημα Τεχνητής Νοημοσύνης που εμπίπτει στο ρυθμιστικό πλαίσιο ορίζεται:

«μηχανικό σύστημα που έχει σχεδιαστεί για να λειτουργεί με διαφορετικά επίπεδα αυτονομίας και μπορεί να παρουσιάζει προσαρμοστικότητα μετά την εφαρμογή του και το οποίο, για ρητούς ή σιωπηρούς στόχους, συνάγει, από τα στοιχεία εισόδου που λαμβάνει, πώς να παράγει στοιχεία εξόδου, όπως προβλέψεις, περιεχόμενο, συστάσεις ή αποφάσεις που μπορούν να επηρεάσουν υλικά ή εικονικά περιβάλλοντα».

Το Ευρωπαϊκό Κοινοβούλιο ήδη από τον Απρίλιο του 2021 πρότεινε την υιοθέτηση ρυθμιστικού πλαισίου για την Τεχνητή Νοημοσύνη.  Στόχος του νέου Κανονισμού είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον. Τα συστήματα τεχνητής νοημοσύνης θα πρέπει να εποπτεύονται από ανθρώπους και όχι από αυτοματισμούς, ώστε να αποφεύγονται πιθανοί κίνδυνοι.

Γι’ αυτό τον σκοπό, ο Κανονισμός διακρίνει τα συστήματα τεχνητής νοημοσύνης ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που επιφέρει η χρήση τους και οι υποχρεώσεις των παρόχων διαμορφώνονται ανάλογα με το επίπεδο του πιθανού κινδύνου.

Διαφορετικά επίπεδα πιθανού κινδύνου

Ο Κανονισμός δημιουργεί τέσσερις κατηγορίες κινδύνου:

Απαράδεκτος κίνδυνοςΑπαγορεύονται οι πρακτικές Τεχνητής Νοημοσύνης που ενέχουν μη αποδεκτό κίνδυνο για τον άνθρωπο. Ειδικότερα, απαγορεύεται κάθε πρακτική που απειλεί τα δικαιώματα των πολιτών, όπως είναι η ανάπτυξη εφαρμογών AI που στοχεύουν στη χειραγώγηση της συμπεριφοράς του ανθρώπου, την αξιολόγηση του με βάση τα προσωπικά του χαρακτηριστικά ή την αναγνώριση συναισθημάτων στον χώρο εργασίας και σε εκπαιδευτικά ιδρύματα κ.α.

Υψηλός κίνδυνος – Οι πρακτικές για την Τεχνητή Νοημοσύνη που ενδέχεται να επιφέρουν σημαντικές επιπτώσεις στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου υπόκεινται σε απαιτήσεις ποιότητας, διαφάνειας και ανθρώπινης εποπτείας.

Περιορισμένος κίνδυνοςΕλάχιστες απαιτήσεις διαφάνειας απαιτούνται για τις πρακτικές που θεωρείται ότι προκαλούν περιορισμένο κίνδυνο, όπως είναι τα συστήματα που αλληλοεπιδρούν με τον άνθρωπο (π.χ. chatbots)

Ελάχιστος κίνδυνος – Οι πρακτικές Τεχνητής Νοημοσύνης που συμβάλουν απλώς στην βελτίωση της εμπειρίας του χρήστη θεωρείται ότι ελλοχεύουν ελάχιστο κίνδυνο και δεν απαιτείται η τήρηση νομικών υποχρεώσεων.

Γενικού σκοπού – Για τους παρόχους θεμελιωδών μοντέλων, όπως είναι το ChatGPT τίθενται επιπρόσθετες υποχρεώσεις διαφάνειας και περιορισμού των κινδύνων ώστε να αποτραπεί η δημιουργία παράνομου περιεχομένου και η καταπάτηση πνευματικών δικαιωμάτων

 

Βασικές Αρχές

Ο Κανονισμός για την Τεχνητή Νοημοσύνη προβλέπει έξι αρχές τις οποίες οι πάροχοι σχετικών συστημάτων θα πρέπει να τηρούν:

Ανθρώπινη αντιπροσώπευση και εποπτεία – οι άνθρωποι θα πρέπει να μπορούν να παρακάμπτουν τις αποφάσεις που λαμβάνει το σύστημα

Τεχνική ευρωστία και ασφάλεια – διασφάλιση ότι τα συστήματά συμμορφώνονται με συστήματα διαχείρισης ποιότητας

Ιδιωτικότητα και διακυβέρνηση δεδομένων – προστασία της ιδιωτικής ζωής και των δεδομένων

Διαφάνεια – σαφείς πληροφορίες σχετικά με τις δυνατότητες και τους περιορισμούς του συστήματος, καθώς και τις πηγές δεδομένων που χρησιμοποιήθηκαν

Ποικιλομορφία, μη διάκριση και δικαιοσύνη – να αποφεύγονται οι διακρίσεις και οι προκαταλήψεις και να προάγεται η ποικιλομορφία

Κοινωνική και περιβαλλοντική ευημερία – βιώσιμη και χωρίς αποκλεισμούς ανάπτυξη, κοινωνική πρόοδο και περιβαλλοντική ευημερία

Κυρώσεις

Όπως και στον Γενικό Κανονισμό Προστασίας Δεδομένων, τα πρόστιμα καθορίζονται από το ποσοστό του ετήσιου κύκλου εργασιών της εταιρείας ή από συγκεκριμένο ποσό, ανάλογα με το ποιο είναι υψηλότερο. Ειδικότερα επιβάλλονται κυρώσεις:

  • Ύψους έως και 35 εκατ. ευρώ ή 7% του παγκόσμιου ετήσιου κύκλου εργασιών του προηγούμενου έτους (όποιο από τα δύο είναι υψηλότερο) για μη συμμόρφωση με τις υποχρεώσεις που αφορούν τις μη αποδεκτές πρακτικές.
  • Ύψους έως 15 εκατ. ευρώ ή 3% του παγκόσμιου ετήσιου κύκλου εργασιών του προηγούμενου οικονομικού έτους (όποιο από τα δύο είναι υψηλότερο), για μη συμμόρφωση με τις υποχρεώσεις που αφορούν τις πρακτικές Τεχνητής Νοημοσύνης γενικού σκοπού ή τις πρακτικές Τεχνητής Νοημοσύνης υψηλού κινδύνου.
  • Ύψους έως 7,5 εκατ. ευρώ, ή 1% του παγκόσμιου ετήσιου κύκλου εργασιών του προηγούμενου οικονομικού έτους (όποιο από τα δύο είναι υψηλότερο), για την παροχή ανακριβών, ελλιπών ή παραπλανητικών πληροφοριών σε διοικητικά όργανα/αρχές σε απάντηση σε αιτήματά τους.

 

Επόμενα βήματα

Ο Κανονισμός προβλέπει τη σύσταση Γραφείου Τεχνητής Νοημοσύνης εντός της Επιτροπής. Ειδικότερα, ο ρόλος του αφορά τον έλεγχο της συμμόρφωσης των μοντέλων Τεχνητής Νοημοσύνης με τις απαιτήσεις του Κανονισμού. Ακόμη, προβλέπεται η σύσταση συμβουλευτικών οργάνων, όπως μίας ανεξάρτητης επιστημονικής ομάδας και του Συμβουλίου Τεχνητής Νοημοσύνης που απαρτίζεται από εκπροσώπους των κρατών μελών και συμβάλλει στην εφαρμογή του Κανονισμού.

Τα επόμενα βήματα για την πλήρη εφαρμογή του κανονισμού είναι τα εξής:

Την 1η Αυγούστου 2024 ο Κανονισμός τίθεται σε ισχύ και κάθε κράτος – μέλος είναι υπεύθυνο για την ενσωμάτωση του στην εθνική έννομη τάξη.

Έως τις 2 Φεβρουαρίου 2025, οι εταιρείες πρέπει να προχωρήσουν στην κατάργηση πρακτικών που δημιουργούν μη αποδεκτό κίνδυνο σύμφωνα με τον Κανονισμό.

Εντός των επόμενων 12 μηνών (2 Αυγούστου 2025) πρέπει να υιοθετηθούν οι απαιτήσεις διαφάνειας που αφορούν τις Γενικού Σκοπού πρακτικές Τεχνητής Νοημοσύνης.

Στις 2 Αυγούστου 2026 τίθεται σε εφαρμογή η πλειονότητα των διατάξεων, με εξαίρεση ορισμένες διατάξεις που αφορούν συγκεκριμένες πρακτικές που δημιουργούν υψηλό κίνδυνο (εφαρμογή έως τις 2 Αυγούστου 2027).

Πηγές:

Κανονισμός – ΕΕ- 2024/1689, Διαθέσιμο εδώ.

EU AI Act: first regulation on artificial intelligence, Διαθέσιμο εδώ.

 

Historic Timeline – EU AI Act, Διαθεσίμο εδώ.

 

Περισσότερα άρθρα μπορείτε να διαβάσετε στο BLOG της εταιρείας μας.

Κοινοποιήστε αυτό το άρθρο

Leave A Comment