Είναι επικίνδυνη η τεχνητή νοημοσύνη (AI);

Τη Δευτέρα 22 Μαΐου 2023, ένας επαληθευμένος λογαριασμός Twitter που ονομάζεται "Bloomberg Feed" μοιράστηκε ένα tweet ισχυριζόμενος ότι υπήρξε έναέκρηξη στο Πεντάγωνο, συνοδευόμενη από μια εικόνα. Αν αναρωτιέστε τι έχει να κάνει με την τεχνητή νοημοσύνη (AI), η εικόνα ήταν μια AI που δημιουργήθηκε, με το tweet να πηγαίνει γρήγορα ιογενή και να πυροδοτήσει μια σύντομη χρηματιστηριακή αγορά βουτιά. Τα πράγματα θα μπορούσαν να ήταν πολύ χειρότερα - μια έντονη υπενθύμιση των κινδύνων της τεχνητής νοημοσύνης.

Τεχνητές κινδύνους νοημοσύνης

Δεν είναι μόνο ψεύτικα νέα που πρέπει να ανησυχούμε. Υπάρχουν πολλοί άμεσοι ή δυνητικοί κίνδυνοι που συνδέονται με το AI, από εκείνους που αφορούν την ιδιωτική ζωή και την ασφάλεια σε προκατάληψη και ζητήματα πνευματικής ιδιοκτησίας. Θα βουτήξουμε σε μερικούς από αυτούς τους κινδύνους τεχνητής νοημοσύνης, θα δούμε τι γίνεται για να τους μετριάσουμε τώρα και στο μέλλον και να ρωτήσουμε αν οι κίνδυνοι του AI υπερβαίνουν τα οφέλη.

Πίνακας περιεχομένων

Ψεύτικα νέα

Πίσω όταν οι Deepfakes προσγειώθηκαν για πρώτη φορά, προέκυψαν ανησυχίες ότι θα μπορούσαν να χρησιμοποιηθούν με κακή πρόθεση. Το ίδιο θα μπορούσε να ειπωθεί και για το νέο κύμα των γεννήτριων εικόνων AI, όπως το Dall-e 2, το Midjourney ή το DreamStudio. Στις 28 Μαρτίου 2023, ψεύτικοΕικόνες που δημιουργήθηκαν από τον Πάπα ΦράνσιςΣε ένα λευκό σακάκι puffer Balenciaga, και απολαμβάνοντας αρκετές περιπέτειες, συμπεριλαμβανομένου του skateboarding και του παιχνιδιού πόκερ πήγε ιογενή. Αν δεν μελετήσατε στενά τις εικόνες, ήταν δύσκολο να διακρίνετε αυτές τις εικόνες από το πραγματικό πράγμα.

Ενώ το παράδειγμα με τον Πάπα ήταν αναμφισβήτητα λίγο διασκέδαση, η εικόνα (και το συνοδευτικό tweet) για το Πεντάγωνο ήταν οτιδήποτε άλλο. Οι ψεύτικες εικόνες που δημιουργούνται από το AI έχουν τη δύναμη να βλάψουν τη φήμη, να τερματίσουν τους γάμους ή τις σταδιοδρομίες, να δημιουργήσουν πολιτικές αναταραχές και ακόμη και να ξεκινήσουν τους πολέμους, εάν ασκηθούν από τους λάθος ανθρώπους-εν συντομία, αυτές οι εικόνες που παράγονται από την ΑΙ έχουν τη δυνατότητα να είναι εξαιρετικά επικίνδυνες εάν χρησιμοποιηθούν κατάχρηση.

Με τις γεννήτριες εικόνων AI τώρα είναι τώρα ελεύθερα διαθέσιμες για να χρησιμοποιήσουν οποιονδήποτε καιPhotoshop προσθέτοντας μια γεννήτρια εικόνων AIΣτο δημοφιλές λογισμικό του, η ευκαιρία να χειριστεί εικόνες και να δημιουργηθεί ψεύτικα νέα είναι μεγαλύτερη από ποτέ.

Ιδιωτικότητα, ασφάλεια και πειρατεία

Η ιδιωτική ζωή και η ασφάλεια είναι επίσης τεράστιες ανησυχίες όταν πρόκειται για τους κινδύνους του AI, με αρκετές χώρες να απαγορεύουν ήδη το ChatGpt της OpenAI. Η Ιταλία έχει απαγορεύσει το μοντέλο λόγω ανησυχιών για την προστασία της ιδιωτικής ζωής, πιστεύοντας ότι δεν συμμορφώνεται με τον ευρωπαϊκό κανονισμό για την προστασία των δεδομένων (GDPR), ενώ η Κίνα, η Βόρεια Κορέα και οι κυβερνήσεις της Ρωσίας την απαγόρευαν λόγω φόβων ότι θα εξαπλώσει παραπληροφόρηση.

Γιατί λοιπόν ανησυχούμε τόσο για την ιδιωτική ζωή όταν πρόκειται για AI; Οι εφαρμογές και τα συστήματα AI συγκεντρώνουν μεγάλα ποσά δεδομένων για να μάθουν και να κάνουν προβλέψεις. Αλλά πώς αποθηκεύονται και επεξεργάζονται αυτά τα δεδομένα; Υπάρχει ένας πραγματικός κίνδυνος παραβίασης δεδομένων, πειρατείας και πληροφορίες που πέφτουν σε λάθος χέρια.

Δεν είναι μόνο τα προσωπικά μας δεδομένα που κινδυνεύουν. Το AI Hacking είναι ένας πραγματικός κίνδυνος - δεν έχει συμβεί ακόμα, αλλά αν εκείνοι με κακόβουλη πρόθεση θα μπορούσαν να χαράξουν τα συστήματα AI, αυτό θα μπορούσε να έχει σοβαρές συνέπειες. Για παράδειγμα, οι χάκερς θα μπορούσαν να ελέγξουν τα οχήματα χωρίς οδηγούς, στα συστήματα ασφαλείας AI για να αποκτήσουν είσοδο σε εξαιρετικά ασφαλείς τοποθεσίες και ακόμη και συστήματα όπλων Hack με ασφάλεια AI.

Οι εμπειρογνώμονες στο Υπουργείο Άμυνας των Αμερικανών Υπουργείου Άμυνας Defense Advanced Agency Projects (DARPA) αναγνωρίζουν αυτούς τους κινδύνους και εργάζονται ήδη για το έργο της DARPA που εγγυάται την ευρωστία AI κατά της εξαπάτησης (GARD), αντιμετωπίζοντας το πρόβλημα από το έδαφος. Ο στόχος του έργου είναι να διασφαλιστεί ότι η αντίσταση στην πειρατεία και την παραβίαση είναι ενσωματωμένη σε αλγόριθμους και AI.

Παραβίαση πνευματικών δικαιωμάτων

Διαβάστε περισσότερα:Τεχνητή νοημοσύνη Γέφυρες χάσμα στην επικοινωνία ανθρώπινου ζώου

Ένας άλλος από τους κινδύνους του AI είναι η παραβίαση πνευματικών δικαιωμάτων. Αυτό μπορεί να μην ακούγεται τόσο σοβαρό όσο κάποιοι άλλοι κίνδυνοι που αναφέραμε, αλλά η ανάπτυξη μοντέλων AI όπως το GPT-4 θέτει σε όλους όσους διατρέχουν αυξημένο κίνδυνο παραβίασης.

Κάθε φορά που ζητάτε από το ChatGpt να δημιουργήσει κάτι για εσάς - είτε πρόκειται για μια ανάρτηση ιστολογίου στο Travel είτε για ένα νέο όνομα για την επιχείρησή σας - σας τροφοδοτείτε πληροφορίες που στη συνέχεια χρησιμοποιεί για να απαντήσει μελλοντικά ερωτήματα. Οι πληροφορίες που τροφοδοτούν πίσω σε εσάς θα μπορούσαν να παραβιάζουν τα πνευματικά δικαιώματα κάποιου άλλου, γι 'αυτό είναι τόσο σημαντικό να χρησιμοποιήσετε έναν ανιχνευτή λογοκλοπής και να επεξεργαστείτε οποιοδήποτε περιεχόμενο που δημιουργήθηκε από την AI πριν τη δημοσιεύσει.

Η κοινωνική και η προκατάληψη των δεδομένων

Το AI δεν είναι ανθρώπινο, οπότε δεν μπορεί να είναι προκατειλημμένο, έτσι; Λανθασμένος. Οι άνθρωποι και τα δεδομένα χρησιμοποιούνται για την εκπαίδευση μοντέλων AI και chatbots, πράγμα που σημαίνει προκατειλημμένα δεδομένα ή προσωπικότητες θα οδηγήσει σε ένα προκατειλημμένο AI. Υπάρχουν δύο τύποι προκατάληψης στο AI: Societal Bias και Data Bias.

Με πολλές προκαταλήψεις που υπάρχουν στην καθημερινή κοινωνία, τι συμβαίνει όταν αυτές οι προκαταλήψεις γίνονται μέρος του AI; Οι προγραμματιστές που είναι υπεύθυνοι για την κατάρτιση του μοντέλου θα μπορούσαν να έχουν προσδοκίες που είναι προκατειλημμένες, οι οποίες στη συνέχεια κάνουν το δρόμο τους σε συστήματα AI.

Ή τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση και την ανάπτυξη ενός AI θα μπορούσαν να είναι λανθασμένα, προκατειλημμένα ή να συλλέγονται με κακή πίστη. Αυτό οδηγεί σε μεροληψία δεδομένων, η οποία μπορεί να είναι τόσο επικίνδυνη όσο η κοινωνική προκατάληψη. Για παράδειγμα, εάν ένα σύστημα αναγνώρισης προσώπου εκπαιδεύεται χρησιμοποιώντας κυρίως τα πρόσωπα των λευκών ανθρώπων, μπορεί να αγωνιστεί να αναγνωρίσει εκείνους από μειονοτικές ομάδες, διαιωνίζοντας την καταπίεση.

Τα ρομπότ παίρνουν τις δουλειές μας

Η ανάπτυξη chatbots όπως το ChatGPT και το Google Bard άνοιξε μια εντελώς νέα ανησυχία που περιβάλλει το AI: ο κίνδυνος τα ρομπότ θα πάρουν τις δουλειές μας. Βλέπουμε ήδη συγγραφείς στον κλάδο της τεχνολογίας να αντικατασταθούν από την AI, οι προγραμματιστές λογισμικού ανησυχούν ότι θα χάσουν τις δουλειές τους σε bots και οι εταιρείες που χρησιμοποιούν το ChatGPT για να δημιουργήσουν περιεχόμενο ιστολογίου και περιεχόμενο κοινωνικών μέσων αντί να προσλαμβάνουν ανθρώπινες συγγραφείς.

Σύμφωνα με τοΤο Παγκόσμιο Οικονομικό Φόρουμ του Future of Jobs Report 2020, AI αναμένεται να αντικαταστήσει 85 εκατομμύρια θέσεις εργασίας παγκοσμίως μέχρι το 2025. Ακόμη και αν η AI δεν αντικαθιστά τους συγγραφείς, χρησιμοποιείται ήδη ως εργαλείο από πολλούς. Εκείνοι σε θέσεις εργασίας που κινδυνεύουν να αντικατασταθούν από το AI μπορεί να χρειαστεί να προσαρμοστούν για να επιβιώσουν - για παράδειγμα, οι συγγραφείς μπορεί να γίνουν μηχανικοί AI, επιτρέποντάς τους να συνεργαστούν με εργαλεία όπως το ChatGPT για τη δημιουργία περιεχομένου αντί να αντικατασταθούν από αυτά τα μοντέλα.

Αυτά είναι όλα άμεσα ή επικίνδυνα κίνδυνο, αλλά τι γίνεται με μερικούς από τους λιγότερο πιθανούς αλλά ακόμα πιθανούς κινδύνους του AI που μπορούσαμε να δούμε στο μέλλον; Αυτά περιλαμβάνουν πράγματα όπως το AI που προγραμματίζονται για να βλάψουν τους ανθρώπους, για παράδειγμα, αυτόνομα όπλα που εκπαιδεύονται να σκοτώσουν κατά τη διάρκεια ενός πολέμου.

Στη συνέχεια, υπάρχει ο κίνδυνος ότι η AI θα μπορούσε να εστιάσει μεμονωμένα τον προγραμματισμένο στόχο του, αναπτύσσοντας καταστρεπτικές συμπεριφορές καθώς επιχειρεί να επιτύχει αυτόν τον στόχο με κάθε κόστος, ακόμη και όταν οι άνθρωποι προσπαθούν να σταματήσουν αυτό να συμβεί.

Ο Skynet μας δίδαξε τι συμβαίνει όταν ένα AI γίνεται αισθανόμενο. Ωστόσο, αν και ο μηχανικός της Google Blake Lemoine μπορεί να έχει προσπαθήσει να πείσει όλους ότιΗ Lamda, η τεχνητά έξυπνη γεννήτρια chatbot της Google ήταν αισθανόμενηΤον Ιούνιο του 2022, ευτυχώς δεν υπάρχουν στοιχεία μέχρι σήμερα για να υποδείξουμε ότι αυτό είναι αλήθεια.

Οι προκλήσεις του κανονισμού AI

Τη Δευτέρα 15 Μαΐου 202,Ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, παρακολούθησε την πρώτη ακρόαση του Κογκρέσου για την Τεχνητή Νοημοσύνη, προειδοποίηση, "Αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει αρκετά λάθος." Το Openai Co κατέστησε σαφές ότι ευνοεί τη ρύθμιση και έφερε πολλές από τις δικές του ιδέες στην ακρόαση. Το πρόβλημα είναι ότι το AI εξελίσσεται με τέτοια ταχύτητα, είναι δύσκολο να γνωρίζουμε από πού να ξεκινήσετε με τη ρύθμιση.

Το Κογκρέσο θέλει να αποφύγει να κάνει τα ίδια λάθη στην αρχή της εποχής των κοινωνικών μέσων ενημέρωσης και μια ομάδα εμπειρογνωμόνων μαζί με τον ηγέτη της πλειοψηφίας της Γερουσίας, Chuck Schumer, εργάζονται ήδη σε κανονισμούς που θα απαιτούσαν από τις εταιρείες να αποκαλύψουν ποιες πηγές δεδομένων χρησιμοποίησαν για να εκπαιδεύσουν μοντέλα και που τους εκπαιδεύουν. Μπορεί να είναι κάποια στιγμή πριν από ακριβώς πώς θα ρυθμιστεί το AI, όμως, και χωρίς αμφιβολία θα υπάρξει αντίδραση από τις εταιρείες AI.

Η απειλή μιας τεχνητής γενικής νοημοσύνης

Υπάρχει επίσης ο κίνδυνος της δημιουργίας μιας τεχνητής γενικής νοημοσύνης (AGI) που θα μπορούσε να επιτύχει οποιαδήποτε καθήκοντα θα μπορούσε να εκτελέσει ένας άνθρωπος (ή ζώο). Συχνά αναφέρονται σε ταινίες sci-fi, πιθανότατα είμαστε ακόμα δεκαετίες μακριά από μια τέτοια δημιουργία, αλλά αν και όταν δημιουργούμε ένα AGI, θα μπορούσε να αποτελέσει απειλή για την ανθρωπότητα.

Πολλοί δημόσιοι αριθμοί ήδη υποστηρίζουν την πεποίθηση ότι η AI αποτελεί μια υπαρξιακή απειλή για τον άνθρωπο, όπως ο Stephen Hawking, ο Bill Gates και ακόμη και ο πρώην διευθύνων σύμβουλος της Google Eric Schmidt, ο οποίος δήλωσε: "Η τεχνητή νοημοσύνη θα μπορούσε να δημιουργήσει υπαρξιακούς κινδύνους και οι κυβερνήσεις πρέπει να γνωρίζουν πώς να διασφαλίζουν ότι η τεχνολογία δεν χρησιμοποιείται από κακούς ανθρώπους".

Έτσι, η τεχνητή νοημοσύνη είναι επικίνδυνη και ο κίνδυνος της υπερβαίνει τα οφέλη της; Η κριτική επιτροπή εξακολουθεί να είναι έξω σε αυτό, αλλά βλέπουμε ήδη αποδεικτικά στοιχεία για μερικούς από τους κινδύνους γύρω μας αυτή τη στιγμή. Άλλοι κίνδυνοι είναι λιγότερο πιθανό να επιτευχθούν σύντομα, αν όχι καθόλου. Ένα πράγμα είναι σαφές, όμως: οι κίνδυνοι του AI δεν πρέπει να υποτιμηθούν. Είναι εξαιρετικά σημαντικό να διασφαλίσουμε ότι το AI ρυθμίζεται σωστά από την αρχή, για να ελαχιστοποιηθεί και ελπίζουμε να μετριάσουμε τυχόν μελλοντικούς κινδύνους.