Quantcast
«Καμπανάκι» για την τεχνητή νοημοσύνη - Πώς τα deepfakes μπορούν να επηρεάσουν τις αγορές - enikonomia.gr
share

«Καμπανάκι» για την τεχνητή νοημοσύνη – Πώς τα deepfakes μπορούν να επηρεάσουν τις αγορές

δημοσιεύτηκε:

Τον περασμένο μήνα καταγράφηκε ένα περιστατικό online, που θα έπρεπε να ταράξει οποιονδήποτε επενδυτή. Ένα deepfake βίντεο μιας υποτιθέμενης έκρηξης κοντά στο Πεντάγωνο έγινε viral, καθώς έγινε retweet του από διεθνή μέσα ενημέρωσης όπως το Russia Today, προκαλώντας αναταράξεις στις αγορές μετοχών των ΗΠΑ.

Ευτυχώς, οι αμερικανικές αρχές πλημμύρισαν γρήγορα τα social media με δηλώσεις που έλεγαν πως το βίντεο είναι ψεύτικο –και το RT εξέδωσε μια ντροπαλή ανακοίνωση παραδεχόμενο πως «είναι μόνο μια εικόνα που έχει παραχθεί από τεχνητή νοημοσύνη». Οι αγορές στη συνέχεια ανέκαμψαν.

Ωστόσο, το επεισόδιο δημιούργησε ένα απογοητευτικό σκηνικό για την επίσκεψη του Βρετανού πρωθυπουργού, Ρίσι Σουνάκ, στην Ουάσιγκτον αυτή την εβδομάδα – και την προσφορά του για μια κοινή πρωτοβουλία ΗΠΑ-Ηνωμένου Βασιλείου για την αντιμετώπιση των κινδύνων της Τεχνητής Νοημοσύνης (ΑΙ).

Όπως αναφέρουν οι Financial Times σε δημοσίευμά τους, έχουν αυξηθεί οι φωνές που σημαίνουν συναγερμό τόσο εντός όσο και εκτός του τεχνολογικού τομέα σχετικά με τους κινδύνους της υπερ-ευφυούς, αυτοκατευθυνόμενης τεχνητής νοημοσύνης. Την περασμένη εβδομάδα, περισσότεροι από 350 επιστήμονες εξέδωσαν κοινή επιστολή προειδοποιώντας ότι «ο μετριασμός του κινδύνου εξαφάνισης από την ΑΙ θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».

Αυτές οι μακροπρόθεσμες απειλές «εξαφάνισης» γίνονται πρωτοσέλιδα. Αλλά ειδικοί όπως ο Τζεφ Χίντον – ακαδημαϊκός και πρώην υπάλληλος της Google, που θεωρείται ως ένας από τους «νονούς της τεχνητής νοημοσύνης», πιστεύουν ότι ο πιο άμεσος κίνδυνος για τον οποίο πρέπει να ανησυχούμε δεν είναι ότι τα μηχανήματα θα ξεφύγουν, αλλά ότι οι άνθρωποι θα τα χρησιμοποιήσουν καταχρηστικά. Συγκεκριμένα, ο Χίντον είπε πρόσφατα ότι η διάδοση των εργαλείων τεχνητής νοημοσύνης θα μπορούσε να επιδεινώσει δραματικά τα υπάρχοντα προβλήματα στον κυβερνοχώρο, όπως το έγκλημα, η πειρατεία και η παραπληροφόρηση.

Στην Ουάσινγκτον υπάρχει ήδη έντονη ανησυχία ότι τα deepfakes θα δηλητηριάσουν τον προεκλογικό αγώνα του 2024, αναφέρουν οι FT. Μάλιστα, έχει προκύψει ήδη ότι έχουν ήδη επηρεάσει την πολιτική της Βενεζουέλας. Και αυτή την εβδομάδα Ουκρανοί χάκερς μετέδωσαν ένα deepfake βίντεο του Βλαντίμιρ Πούτιν σε ορισμένα ρωσικά τηλεοπτικά κανάλια.

Όμως, ο χρηματοπιστωτικός τομέας αναδεικνύεται τώρα σε ένα άλλο επίκεντρο ανησυχίας. Τον περασμένο μήνα η συμβουλευτική εταιρεία Kaspersky δημοσίευσε μια εθνογραφική μελέτη του dark web, η οποία σημείωσε «μια σημαντική ζήτηση για deepfakes», με «τιμές ανά λεπτό deepfake βίντεο (που κυμαίνονται) από 300 έως 20.000 δολάρια». Μέχρι στιγμής έχουν χρησιμοποιηθεί κυρίως για απάτες με κρυπτονομίσματα, αναφέρει. Αλλά το βίντεο deepfake του Πενταγώνου δείχνει πώς θα μπορούσαν να επηρεάσουν και τις κύριες αγορές assets. «Μπορεί να δούμε εγκληματίες να τα χρησιμοποιούν για σκόπιμη χειραγώγηση (της αγοράς)», όπως μου λέει ένας αξιωματούχος των ΗΠΑ για θέματα ασφαλείας.

Υπάρχει λοιπόν κάτι που μπορούν να κάνουν ο Σουνάκ και ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν; Όχι εύκολα. Ο Λευκός Οίκος διεξήγαγε πρόσφατα συζητήσεις για τις διατλαντικές πολιτικές ΑΙ με την ΕΕ (από τις οποίες η Βρετανία, ως μη μέλος της ΕΕ, αποκλείστηκε). Όμως η πρωτοβουλία αυτή δεν έχει ακόμα οδηγήσει σε κάποια επίσημη συμφωνία. Και οι δύο πλευρές αναγνωρίζουν την ανάγκη για διασυνοριακές πολιτικές σχετικά με την τεχνητή νοημοσύνη, αλλά οι ευρωπαϊκές αρχές είναι πιο πρόθυμες για ρυθμιστικούς ελέγχους σε σχέση με την Ουάσινγκτον – και αποφασισμένες να κρατήσουν τους αμερικανικούς τεχνολογικούς ομίλους σε κάποια απόσταση.

Έτσι, ορισμένοι Αμερικανοί αξιωματούχοι υποψιάζονται ότι ίσως είναι ευκολότερο να ξεκινήσει ο διεθνής συντονισμός με μια διμερή πρωτοβουλία για την AI με το Ηνωμένο Βασίλειο, δεδομένης της πρόσφατης έκδοσης ενός πιο φιλικού προς τις επιχειρήσεις εγγράφου πολιτικής. Υπάρχουν εξάλλου ήδη στενοί δεσμοί στον τομέα, μέσω του λεγόμενου συμφώνου ασφαλείας Five Eyes, και οι δύο χώρες κατέχουν ένα μεγάλο κομμάτι του δυτικού οικοσυστήματος τεχνητής νοημοσύνης (καθώς και των χρηματοπιστωτικών αγορών).

Έχουν πέσει στο τραπέζι διάφορες ιδέες. Μία από αυτές, που προωθείται από τον Ρισι Σούνακ, είναι η δημιουργία ενός χρηματοδοτούμενου από το κράτος διεθνούς ερευνητικού ινστιτούτου για την τεχνητή νοημοσύνη, όπως το Cern, το κέντρο σωματιδιακής φυσικής. Η ελπίδα είναι ότι αυτό θα μπορούσε να αναπτύξει την τεχνητή νοημοσύνη με ασφάλεια, καθώς και να δημιουργήσει εργαλεία με δυνατότητα ΑΙ για την καταπολέμηση της κατάχρησης, όπως η παραπληροφόρηση.

Υπάρχει επίσης μια πρόταση για τη δημιουργία ενός παγκόσμιου οργανισμού παρακολούθησης της ΑΙ, παρόμοιου με τον Διεθνή Οργανισμό Ατομικής Ενέργειας.

Ο Σούνακ θέλει αυτός ο οργανισμός να έχει την έδρα του στο Λονδίνο. Μια τρίτη ιδέα είναι η δημιουργία ενός παγκόσμιου πλαισίου αδειοδότησης για την ανάπτυξη και την αξιοποίηση εργαλείων ΑΙ. Αυτό θα μπορούσε να περιλαμβάνει μέτρα για την καθιέρωση «υδατοσήμων» που θα δείχνουν την προέλευση του διαδικτυακού περιεχομένου και θα εντοπίζουν τις βαθιές απομιμήσεις.

Όλες αυτές είναι εξαιρετικά λογικές ιδέες που θα μπορούσαν -και θα έπρεπε- να αναπτυχθούν. Αλλά αυτό είναι απίθανο να συμβεί γρήγορα ή εύκολα. Η δημιουργία ενός Cern τύπου AI θα μπορούσε να είναι πολύ δαπανηρή και θα είναι δύσκολο να υπάρξει ταχεία διεθνής υποστήριξη για ένα όργανο παρακολούθησης τύπου ΙΑΕΑ.

Και το μεγάλο πρόβλημα που στοιχειώνει κάθε σύστημα αδειοδότησης είναι το πώς θα μπει στο δίκτυο το ευρύτερο οικοσύστημα. Οι τεχνολογικοί όμιλοι που κυριαρχούν στην έρευνα αιχμής για την τεχνητή νοημοσύνη στη Δύση – όπως η Microsoft, η Google και η OpenAI – έχουν δηλώσει στον Λευκό Οίκο ότι θα συνεργάζονταν με ιδέες αδειοδότησης. Οι εταιρικοί χρήστες τους είναι σχεδόν σίγουρου ότι θα συμμορφωθούν επίσης.

«Ωστόσο, το να μπει η επιχειρηματική «μαρίδα» – και οι εγκληματικές ομάδες – σε ένα δίχτυ αδειοδότησης θα ήταν πολύ πιο δύσκολο. Και υπάρχει ήδη άφθονο υλικό ανοικτού κώδικα για την τεχνητή νοημοσύνη που μπορεί να χρησιμοποιηθεί καταχρηστικά. Το βίντεο deepfake του Πενταγώνου, για παράδειγμα, φαίνεται να έχει χρησιμοποιήσει υποτυπώδη συστήματα.

Έτσι, η δυσάρεστη αλήθεια είναι ότι, βραχυπρόθεσμα, ο μόνος ρεαλιστικός τρόπος για να καταπολεμηθεί ο κίνδυνος χειραγώγησης της αγοράς είναι οι χρηματοδότες (και οι δημοσιογράφοι) να αναπτύξουν περισσότερη δέουσα επιμέλεια – και οι κυβερνητικοί ερευνητές να κυνηγήσουν τους εγκληματίες του κυβερνοχώρου.

Αν η ρητορική αυτής της εβδομάδας από τον Σούνακ και τον Μπάιντεν βοηθήσει στην ευαισθητοποίηση του κοινού για το συγκεκριμένο θέμα, αυτό θα ήταν καλό. Αλλά κανείς δεν πρέπει να ξεγελαστεί και να πιστέψει ότι η γνώση και μόνο θα διορθώσει την απειλή. Η ευθύνη είναι του αγοραστή», αναφέρουν οι FT.

 

share
Σχόλια Αναγνωστών
Ροή
Οικονομία
Επιχειρήσεις
Επικαιρότητα

Ενημερωθείτε πρώτοι με τον τρόπο που θέλετε.