ChatGPT

ChatGPT: Εργαλείο ή Απειλή της ιδιωτικότητας

Η κυκλοφορία του «ChatGPT» έχει κάνει αισθητή  την παρουσία του σε ποικίλους τομείς. Θέτοντας το δίλημμα σχετικά με το αν η χρήση της εφαρμογής αποτελεί εργαλείο ή απειλή της ιδιωτικότητας των χρηστών.

Τί είναι το ChatGPT;

Το ChatGPT είναι μία εφαρμογή τεχνητής νοημοσύνης, την οποία κυκλοφόρησε η OpenAI, τον Νοέμβριο του 2022. Σκοπός της είναι να διευκολύνει τους χρήστες του Διαδικτύου στις αναζητήσεις τους τόσο από την μηχανή της Google όσο και από άλλες μηχανές αναζήτησης .

Δηλώσεις της OpenAI

OpenAI: «Δημιουργήσαμε ένα μοντέλο που ονομάζεται ChatGPT. Το εν λόγω μοντέλο αλληλεπιδρά με τον χρήστη σε μορφή διαλόγου. Η μορφή διαλόγου επιτρέπει στο ChatGPT να απαντά σε επακόλουθες ερωτήσεις, να παραδέχεται τα λάθη του, να αμφισβητεί λανθασμένες εγκαταστάσεις και να απορρίπτει ακατάλληλα αιτήματα». Επίσης, η OpenAI υποστηρίζει ότι το ChatGPT πληροί όλες τις προϋποθέσεις συμμόρφωσης με τον Γενικό Κανονισμό Προστασίας Δεδομένων (GDPR) της ΕΕ.

Οι δηλώσεις  στο BBC:

Το OpenAI σε συνέντευξή του στο BBC δήλωσε ότι: Εκατομμύρια άνθρωποι έχουν χρησιμοποιήσει το ChatGPT από τότε που κυκλοφόρησε. Συγκεκριμένα, η εφαρμογή μπορεί να απαντήσει σε ερωτήσεις χρησιμοποιώντας φυσική γλώσσα, ενώ μπορεί να μιμηθεί άλλα στυλ γραφής, χρησιμοποιώντας ως βάση δεδομένων του το Διαδίκτυο όπως ήταν το 2021.

Η Microsoft έχει ξοδέψει δισεκατομμύρια δολάρια σε αυτό και προστέθηκε και στο Bing τον περασμένο μήνα. Ακόμη, θα ενσωματώσει μια έκδοση της στις εφαρμογές του Office, συμπεριλαμβανομένων των Word, Excel, PowerPoint και Outlook.

Οι επιφυλάξεις των Αρχών Προστασίας Δεδομένων

Η Ιταλική Αρχή Προστασίας Δεδομένων έθεσε σε προσωρινή παύση τη λειτουργία του ChatGPT στην Ιταλία. Υποστηρίζει ότι το εργαλείο τεχνητής νοημοσύνης μπορεί να έχει παραβιάσει τον GDPR κατά τη διάρκεια πρόσφατης διαρροής δεδομένων. Η OpenAI έλαβε 20 ημέρες για να αντιμετωπίσει τα ζητήματα απορρήτου, ειδάλλως κινδυνεύει από την επιβολή μεγάλων προστίμων μέχρι και το 4% του ετήσιου τζίρου της.

Αφορμή στάθηκε η πρόσφατη διαρροή δεδομένων στο ChatGPT, κατά την οποία ένα δοκιμαστικό σύστημα αιτημάτων γνωστοποίησε κατά λάθος μέρη συνομιλιών ορισμένων χρηστών σε άλλους. Επιπλέον, μία δυσλειτουργία του ChatGPT εξέθεσε προσωπικές πληροφορίες, συμπεριλαμβανομένων των στοιχείων πληρωμής κάποιων χρηστών.

Η Ιρλανδική Αρχή Προστασίας Δεδομένων παρακολουθεί το ζήτημα με την Ιταλική Αρχή Προστασίας για να κατανοήσει τη βάση της δράσης της και «θα συντονιστεί με όλες τις αρχές προστασίας δεδομένων της ΕΕ» σε σχέση με την απαγόρευση. Η Ανεξάρτητη Ρυθμιστική Αρχή Δεδομένων του Ηνωμένου Βασιλείου, θα «υποστηρίξει» τις εξελίξεις στην τεχνητή νοημοσύνη. Ωστόσο, επιφυλάσσεται να «αμφισβητήσει τη μη συμμόρφωση» με τους νόμους περί προστασίας δεδομένων της εφαρμογής.

Τίθενται ζητήματα σχετικά με τον τρόπο συλλογής των δεδομένων που χρησιμοποιεί η εφαρμογή για να απαντήσει σε ερωτήσεις και τον χρόνο διατήρησης των δεδομένων. Εξίσου σημαντικά είναι τα μέτρα προστασίας που θα  λάβει για τους ανήλικους χρήστες, δεδομένου ότι δεν διαθέτει κανενός είδους σύστημα ελέγχου ηλικίας. Αναγκαίες είναι οι εκτιμήσεις για την παράνομη συλλογή δεδομένων και την έκθεση σε δυνητικά επικίνδυνους διαλόγους – συνομιλίες.

Η άποψη του Michael Rinehart

Ο Michael Rinehart, Αντιπρόεδρος Τεχνητής Νοημοσύνης της εταιρείας Securiti, επισημαίνει ότι η ασφάλεια και η προστασία της ιδιωτικότητας μέσω σχεδιαστικών προσεγγίσεων είναι πιθανώς ο τρόπος για να αναπτυχθεί η τεχνητή νοημοσύνη. Μάλιστα υποστηρίζει ότι: «Η απόφαση της ιταλικής αρχής προστασίας δεδομένων να απαγορεύσει το ChatGPT υπογραμμίζει τη σημασία της υιοθέτησης μιας προσέγγισης με προτεραιότητα το απόρρητο για την εκπαίδευση μοντέλων Generative AI. Το απόρρητο των δεδομένων δεν αποτελεί απλώς μια ανησυχία για το σύστημα δεδομένων. Όπως αποδεικνύεται από τη σειρά των δημοσίως διαθέσιμων επιθέσεων άμεσων μηχανικών κατά του ChatGPT, οι ad-hoc τεχνικές για την προστασία του απορρήτου «εν προτροπή» μπορεί να έχουν εύκολα εκμεταλλεύσιμες αδυναμίες. Παρά τις προκλήσεις, οι επιχειρήσεις μπορούν να αποκομίσουν τα οφέλη του Generative AI, δίνοντας προτεραιότητα στην προστασία του απορρήτου μέσω της σωστής διαχείρισης των δεδομένων τους».

Συμπέρασμα

Η εφαρμογή ChatGPT έχει τη δυνατότητα να ωφελήσει  τη διαδικτυακή  αγορά, ωστόσο υπάρχουν καίρια ζητήματα που πρέπει να επιλυθούν, με σκοπό την ασφαλή χρήση της. Όπως διαπιστώνεται η προστασία των δεδομένων θα πρέπει να αποτελέσει κύριο μέλημα σε ένα τέτοιο εγχείρημα.

 

Πηγές:

BBC: ChatGPT banned in Italy over privacy concerns/ Διαθέσιμο εδώ.

ChatGPT-style tech brought to Microsoft 365/ Διαθέσιμο εδώ.

CPO Magazine: Italian DPA Puts a Temporary Ban on ChatGPT Over Privacy Concerns/ Διαθέσιμο εδώ.

OpenAI: Introducing ChatGPT/ Διαθέσιμο εδώ.

 

Περισσότερα άρθρα μπορείτε να διαβάσετε στο BLOG της εταιρείας μας.

Leave a Reply

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.

Top