Τα drones και τα αυτόνομα αυτοκίνητα ως όπλα: γιατί πρέπει να φοβόμαστε τους χάκερ
Τα drones και τα αυτόνομα αυτοκίνητα ως όπλα: γιατί πρέπει να φοβόμαστε τους χάκερ
Anonim

Εάν η τεχνητή νοημοσύνη πέσει σε λάθος χέρια, ο πολιτισμένος κόσμος μπορεί να βυθιστεί στο χάος.

Τα drones και τα αυτόνομα αυτοκίνητα ως όπλα: γιατί πρέπει να φοβόμαστε τους χάκερ
Τα drones και τα αυτόνομα αυτοκίνητα ως όπλα: γιατί πρέπει να φοβόμαστε τους χάκερ

Κανείς δεν θα αρνηθεί ότι η τεχνητή νοημοσύνη μπορεί να πάει τη ζωή μας στο επόμενο επίπεδο. Η τεχνητή νοημοσύνη είναι σε θέση να λύσει πολλά προβλήματα που είναι πέρα από τις δυνάμεις των ανθρώπων.

Ωστόσο, πολλοί πιστεύουν ότι η υπερευφυΐα σίγουρα θα θέλει να μας καταστρέψει, όπως το SkyNet, ή θα αρχίσει να διεξάγει πειράματα σε ανθρώπους, όπως το GLADoS από το παιχνίδι Portal. Η ειρωνεία είναι ότι μόνο οι άνθρωποι μπορούν να κάνουν την τεχνητή νοημοσύνη καλή ή κακή.

Γιατί η τεχνητή νοημοσύνη μπορεί να είναι μια σοβαρή απειλή
Γιατί η τεχνητή νοημοσύνη μπορεί να είναι μια σοβαρή απειλή

Ερευνητές από το Πανεπιστήμιο Yale, την Οξφόρδη, το Cambridge και το OpenAI δημοσίευσαν μια έκθεση σχετικά με την κατάχρηση της τεχνητής νοημοσύνης. Λέει ότι ο πραγματικός κίνδυνος προέρχεται από τους χάκερ. Με τη βοήθεια κακόβουλου κώδικα, μπορούν να διαταράξουν τη λειτουργία αυτοματοποιημένων συστημάτων υπό τον έλεγχο της AI.

Οι ερευνητές φοβούνται ότι οι καλοπροαίρετες τεχνολογίες θα πληγούν. Για παράδειγμα, ο εξοπλισμός παρακολούθησης μπορεί να χρησιμοποιηθεί όχι μόνο για τη σύλληψη τρομοκρατών, αλλά και για την κατασκοπεία απλών πολιτών. Οι ερευνητές ανησυχούν επίσης για τα εμπορικά drones που μεταφέρουν τρόφιμα. Είναι εύκολο να τα αναχαιτίσεις και να φυτέψεις κάτι εκρηκτικό.

Ένα άλλο σενάριο για την καταστροφική χρήση της τεχνητής νοημοσύνης είναι τα αυτοοδηγούμενα αυτοκίνητα. Αρκεί να αλλάξετε μερικές γραμμές κώδικα και τα μηχανήματα θα αρχίσουν να αγνοούν τους κανόνες ασφαλείας.

Γιατί η τεχνητή νοημοσύνη μπορεί να είναι μια σοβαρή απειλή
Γιατί η τεχνητή νοημοσύνη μπορεί να είναι μια σοβαρή απειλή

Οι επιστήμονες πιστεύουν ότι η απειλή μπορεί να είναι ψηφιακή, φυσική και πολιτική.

  • Η τεχνητή νοημοσύνη χρησιμοποιείται ήδη για τη μελέτη των τρωτών σημείων διαφόρων κωδίκων λογισμικού. Στο μέλλον, οι χάκερ μπορούν να δημιουργήσουν ένα bot που θα παρακάμπτει κάθε προστασία.
  • Με τη βοήθεια του AI, ένα άτομο μπορεί να αυτοματοποιήσει πολλές διαδικασίες: για παράδειγμα, να ελέγξει ένα σμήνος drones ή μια ομάδα αυτοκινήτων.
  • Με τη βοήθεια τεχνολογιών όπως το DeepFake, είναι δυνατό να επηρεαστεί η πολιτική ζωή του κράτους διαδίδοντας ψευδείς πληροφορίες σχετικά με τους παγκόσμιους ηγέτες χρησιμοποιώντας bots στο Διαδίκτυο.

Αυτά τα τρομακτικά παραδείγματα μέχρι στιγμής υπάρχουν μόνο ως υπόθεση. Οι συγγραφείς της μελέτης δεν προτείνουν την πλήρη απόρριψη της τεχνολογίας. Αντίθετα, πιστεύουν ότι οι εθνικές κυβερνήσεις και οι μεγάλες εταιρείες θα πρέπει να φροντίζουν για την ασφάλεια όσο ο κλάδος της τεχνητής νοημοσύνης είναι ακόμη στα σπάργανα.

Οι υπεύθυνοι χάραξης πολιτικής πρέπει να μελετήσουν την τεχνολογία και να συνεργαστούν με ειδικούς στον τομέα για να ρυθμίσουν αποτελεσματικά τη δημιουργία και τη χρήση της τεχνητής νοημοσύνης.

Οι προγραμματιστές, με τη σειρά τους, πρέπει να αξιολογήσουν τον κίνδυνο που ενέχει η υψηλή τεχνολογία, να προβλέψουν τις χειρότερες συνέπειες και να προειδοποιήσουν τους παγκόσμιους ηγέτες για αυτές. Η έκθεση καλεί τους προγραμματιστές AI να συνεργαστούν με ειδικούς σε θέματα ασφάλειας σε άλλους τομείς και να δουν εάν οι αρχές που διασφαλίζουν την ασφάλεια αυτών των τεχνολογιών μπορούν να χρησιμοποιηθούν για την προστασία της τεχνητής νοημοσύνης.

Η πλήρης αναφορά περιγράφει το πρόβλημα με περισσότερες λεπτομέρειες, αλλά η ουσία είναι ότι η τεχνητή νοημοσύνη είναι ένα ισχυρό εργαλείο. Όλα τα ενδιαφερόμενα μέρη θα πρέπει να μελετήσουν τη νέα τεχνολογία και να βεβαιωθούν ότι δεν χρησιμοποιείται για εγκληματικούς σκοπούς.

Συνιστάται: