Generali

Τεχνητή Νοημοσύνη (ΤΝ): Οι κίνδυνοι για την ασφάλεια

texniti-noimosuni-oi-kindunoi-gia-tin-asfaleia.jpg

Στόχευση πελατών, υποστήριξη και εξυπηρέτηση μετά την πώληση, αυτοματοποίηση εργασιών… Πλέον, η τεχνητή νοημοσύνη (ΤΝ) βρίσκεται παντού, μεταμορφώνοντας τον τρόπο λειτουργίας των εταιρειών και αυξάνοντας την παραγωγικότητα. Τα οφέλη, όμως, συνοδεύονται από νέους κινδύνους, ιδίως για την ασφάλεια. Σε αυτό το άρθρο, εξετάζουμε ποιες απειλές φέρνει η ΤΝ και πώς μπορούν να αντεπεξέλθουν οι επιχειρήσεις.

Ασφάλεια: Γιατί να φοβηθεί κανείς την ΤΝ και γιατί αποτελεί απειλή;

Πώς κινδυνεύουν τα δεδομένα κατά τη χρήση παραγωγικής ΤΝ (Generative AI); 

Λόγω της ικανότητάς της να επεξεργάζεται και να αναλύει πολύ μεγάλους όγκους δεδομένων, η τεχνητή νοημοσύνη εγείρει πρώτο και κυριότερο το ερώτημα της εμπιστευτικότητας των δεδομένων και της συμμόρφωσης με τον Γενικό Κανονισμό Προστασίας Δεδομένων (ΓΚΠΔ) της ΕΕ. Τα εργαλεία τεχνητής νοημοσύνης μπορεί να θέσουν σε κίνδυνο την ασφάλεια των δεδομένων, καθώς και να επιφέρουν ακούσια διαρροή τους. Ο κίνδυνος είναι μεγαλύτερος σε εργαλεία παραγωγικής ΤΝ, όπως το ChatGPT, τα οποία αντλούν πληροφορίες από πλήθος πηγών, οι οποίες μπορεί να περιλαμβάνουν προσωπικά δεδομένα.

Τι γίνεται με την καταπάτηση των πνευματικών δικαιωμάτων;

Άλλος ένας κίνδυνος της ΤΝ είναι η παραβίαση των πνευματικών δικαιωμάτων. Τα εν λόγω εργαλεία χρησιμοποιούν δεδομένα από το Διαδίκτυο χωρίς να παραθέτουν την πηγή. Οι εφαρμογές παραγωγικής ΤΝ, για παράδειγμα, παράγουν και παρουσιάζουν περιεχόμενο σαν πρωτότυπο και ελεύθερο προς χρήση, ενώ στην πραγματικότητα δεν είναι πάντα. Μεγάλο μειονέκτημα της ΤΝ, λοιπόν, είναι ότι δεν μας επιτρέπει να γνωρίζουμε αν τα κείμενα, οι εικόνες, τα βίντεο και άλλα δεδομένα τα οποία χρησιμοποιεί –ή τα οποία δίνει σε εμάς για χρήση– προστατεύονται από το δίκαιο της πνευματικής ιδιοκτησίας. Άρα, οι απαντήσεις τις οποίες δίνει ένα chatbot, ίσως οδηγήσουν σε παραβίαση πνευματικών δικαιωμάτων, ιδίως αν χρησιμοποιηθούν για εμπορικούς σκοπούς –άρθρο σε blog, ανάρτηση σε κοινωνικό δίκτυο, ενημερωτικό δελτίο κ.λπ.

Αλλοίωση των πληροφοριών

Εκτός από τα παραπάνω, άλλος ένας κίνδυνος που σχετίζεται στην πράξη με την ΤΝ είναι η ικανότητά της να παρέχει ανακριβείς ή αναληθείς πληροφορίες για ανθρώπους, γεγονότα, συμβάντα, τόπους. Αυτό συμβαίνει όταν ένα εργαλείο χρησιμοποιεί εσφαλμένα ή παρωχημένα δεδομένα, ένα φαινόμενο γνωστό ως «ψευδαισθήσεις», οι οποίες μπορούν να χρησιμοποιηθούν κακόβουλα, για εσκεμμένη παραπληροφόρηση.

Αξίζει να γνωρίζετε: Για τις εταιρείες, η τεχνολογία παρουσιάζει και έμμεσους κινδύνους, όταν χρησιμοποιούνται αλγόριθμοι ΤΝ για σκοπούς εξαπάτησης, όπως δημιουργία κακόβουλου λογισμικού, σύνταξη email με σκοπό το ηλεκτρονικό «ψάρεμα» προσωπικών δεδομένων (phishing) ή κυβερνοεπιθέσεις, ή ακόμα πλαστογράφηση επίσημων ιστοτόπων.

Διαχείριση κινδύνου: Πώς να αξιοποιήσετε με ασφάλεια την ΤΝ

Εκπαίδευση με θέμα τη διαχείριση των κινδύνων της ΤΝ

Οι εταιρείες χρειάζεται να εκπαιδεύσουν το προσωπικό τους στη χρήση λύσεων τεχνητής νοημοσύνης: ChatGPT, chatbots, επιχειρηματικό λογισμικό κ.λπ. Η εν λόγω εκπαίδευση πρέπει να έχει τους εξής στόχους: κατανόηση του τρόπου λειτουργίας των αλγορίθμων ΤΝ· εκμάθηση του τρόπου χρήσης των εργαλείων ΤΝ· πληροφόρηση για τα όρια της τεχνητής νοημοσύνης· καθιέρωση καλών πρακτικών (έλεγχοι, μη αποκάλυψη ευαίσθητων δεδομένων κ.λπ.). Έτσι, το προσωπικό θα μπορεί να αναγνωρίσει τους κινδύνους της ΤΝ και να περιορίσει την πρόσβασή της σε ευαίσθητα δεδομένα.

Οι εταιρείες πρέπει επίσης να ορίσουν τις πιθανές χρήσεις της τεχνητής νοημοσύνης με γνώμονα τη μείωση των κινδύνων

Για παράδειγμα, μπορούν να επιτρέψουν τη χρήση του ChatGPT για εσωτερικό περιεχόμενο, αλλά να την απαγορεύσουν για εμπορικό περιεχόμενο (email, LinkedIn κ.λπ.). Αν πρόκειται να χρησιμοποιηθούν εκτός εταιρείας δεδομένα τα οποία προέρχονται από ΤΝ, είναι απαραίτητο να ελεγχθούν η ποιότητα, οι πηγές και το κύρος τους. Ομοίως, η χρήση τεχνητής νοημοσύνης καλό είναι να απαγορευτεί σε ευαίσθητα θέματα, όπως νομικά ή ιατρικά.

Οι λύσεις τεχνητής νοημοσύνης λειτουργούν προσπελάζοντας όσα δεδομένα παρέχετε

Αν όμως, αυτά τα δεδομένα είναι εμπιστευτικά, η χρήση τους στο ChatGPT ή συναφή εργαλεία ίσως αντίκειται στον ΓΚΠΔ. Επομένως, όπου είναι δυνατόν, μην δίνετε εμπιστευτικές πληροφορίες στα εργαλεία: συμπληρώστε ψεύτικα δεδομένα και, αφού λάβετε την απάντηση του chatbot και την εξαγάγετε από το εργαλείο, μόνο τότε αντικαταστήστε τα με τα γνήσια.

Συμμόρφωση με τον κανονισμό περί τεχνητής νοημοσύνης στην Ευρωπαϊκή Ένωση

Η Πράξη της ΕΕ για την Τεχνητή Νοημοσύνη είναι ένας κανονισμός της Ευρωπαϊκής Επιτροπής που αποσκοπεί στον καθορισμό ενός πλαισίου χρήσης της ΤΝ και πρόληψης των κινδύνων της στην επικράτεια της Ευρωπαϊκής Ένωσης. Σύμφωνα με τον κανονισμό, ο οποίος ψηφίστηκε τον Μάρτιο του 2024 και θα τεθεί σε ισχύ το 2026, οι εταιρείες πρέπει να λάβουν προληπτικά μέτρα έγκαιρης συμμόρφωσης: έλεγχος των υφιστάμενων συστημάτων ΤΝ, ενίσχυση των δεξιοτήτων των τμημάτων συμμόρφωσης, παροχή των απαιτούμενων πόρων για την τήρηση των υποχρεωτικών προθεσμιών… Ενδεικτικά, μπορούν να γίνουν τα εξής για τον περιορισμό των κινδύνων: 

Η συμμόρφωση με τον εν λόγω κανονισμό μπορεί επίσης να ξεκλειδώσει την πρόσβαση στην κοινή αγορά της ΕΕ και να εμπνεύσει εμπιστοσύνη στους πελάτες. Από την άλλη, η μη συμμόρφωση μπορεί να εκθέσει μια επιχείρηση σε βαριά πρόστιμα (έως 7% των παγκόσμιων πωλήσεων ή 35 εκατομμύρια ευρώ), για συστήματα ΤΝ με μη-αποδεκτούς κινδύνους.

Exit mobile version