Τι μπορεί πραγματικά να κάνει η τεχνητή νοημοσύνη σήμερα
Τι μπορεί πραγματικά να κάνει η τεχνητή νοημοσύνη σήμερα
Anonim

Spoiler alert: Είναι ακόμα πολύς καιρός μέχρι την εξέγερση των μηχανών.

Τι μπορεί πραγματικά να κάνει η τεχνητή νοημοσύνη σήμερα
Τι μπορεί πραγματικά να κάνει η τεχνητή νοημοσύνη σήμερα

Όταν ο Έλον Μασκ παρουσιάζει το ανθρωποειδές ρομπότ Tesla Bot, φαίνεται ότι μια νέα επιστημονική επανάσταση είναι προ των πυλών. Λίγο ακόμα - και η τεχνητή νοημοσύνη (AI) θα ξεπεράσει τον άνθρωπο και οι μηχανές θα μας αντικαταστήσουν στη δουλειά. Ωστόσο, οι καθηγητές Gary Marcus και Ernest Davis, και οι δύο διάσημοι ειδικοί της τεχνητής νοημοσύνης, καλούνται να μην βιαστούν να καταλήξουν σε τέτοια συμπεράσματα.

Στο Reboot της Τεχνητής Νοημοσύνης, οι ερευνητές εξηγούν γιατί η σύγχρονη τεχνολογία απέχει πολύ από την ιδανική. Με την άδεια του εκδοτικού οίκου «Alpina PRO» το Lifehacker δημοσιεύει ένα απόσπασμα από το πρώτο κεφάλαιο.

Σε αυτό το σημείο, υπάρχει ένα τεράστιο χάσμα - ένα πραγματικό χάσμα - μεταξύ της φιλοδοξίας μας και της πραγματικότητας της τεχνητής νοημοσύνης. Αυτό το χάσμα έχει προκύψει λόγω της μη επίλυσης τριών συγκεκριμένων προβλημάτων, καθένα από τα οποία πρέπει να αντιμετωπιστεί με ειλικρίνεια.

Το πρώτο από αυτά είναι αυτό που ονομάζουμε ευκολοπιστία, το οποίο βασίζεται στο γεγονός ότι εμείς οι άνθρωποι δεν έχουμε μάθει πραγματικά να διακρίνουμε μεταξύ ανθρώπων και μηχανών, και αυτό καθιστά εύκολο να μας κοροϊδέψουμε. Αποδίδουμε ευφυΐα στους υπολογιστές επειδή εμείς οι ίδιοι έχουμε εξελιχθεί και ζήσει ανάμεσα σε ανθρώπους που βασίζουν σε μεγάλο βαθμό τις πράξεις τους σε αφαιρέσεις όπως ιδέες, πεποιθήσεις και επιθυμίες. Η συμπεριφορά των μηχανών είναι συχνά επιφανειακά παρόμοια με τη συμπεριφορά των ανθρώπων, επομένως αναθέτουμε γρήγορα στις μηχανές τον ίδιο τύπο βασικών μηχανισμών, ακόμα κι αν οι μηχανές δεν τους διαθέτουν.

Δεν μπορούμε παρά να σκεφτούμε τις μηχανές με γνωστικούς όρους («Ο υπολογιστής μου πιστεύει ότι διέγραψα το αρχείο μου»), ανεξάρτητα από το πόσο απλοί κανόνες που ακολουθούν οι μηχανές. Όμως τα συμπεράσματα που δικαιολογούνται όταν εφαρμόζονται σε ανθρώπους μπορεί να είναι εντελώς λανθασμένα όταν εφαρμόζονται σε προγράμματα τεχνητής νοημοσύνης. Σεβόμενοι ένα βασικό δόγμα της κοινωνικής ψυχολογίας, το ονομάζουμε θεμελιώδες σφάλμα εγκυρότητας.

Μία από τις πρώτες περιπτώσεις αυτού του λάθους συνέβη στα μέσα της δεκαετίας του 1960, όταν ένα chatbot με το όνομα Eliza έπεισε μερικούς ανθρώπους ότι καταλάβαινε πραγματικά τα πράγματα που του έλεγαν. Στην πραγματικότητα, η Ελίζα απλώς μάζεψε λέξεις-κλειδιά, επανέλαβε το τελευταίο πράγμα που της είπε το άτομο και σε αδιέξοδο κατέφυγε σε τυπικά τεχνάσματα συνομιλίας όπως «Πες μου για την παιδική σου ηλικία». Αν αναφέρατε τη μητέρα σας, θα σας ρωτούσε για την οικογένειά σας, αν και δεν είχε ιδέα τι είναι πραγματικά η οικογένεια ή γιατί είναι σημαντική για τους ανθρώπους. Ήταν απλώς μια σειρά από κόλπα, όχι μια επίδειξη αληθινής ευφυΐας.

Παρά το γεγονός ότι η Ελίζα δεν καταλάβαινε καθόλου τον κόσμο, πολλοί χρήστες ξεγελάστηκαν από τους διαλόγους μαζί της. Μερικοί ξόδεψαν ώρες πληκτρολογώντας φράσεις στο πληκτρολόγιο, μιλώντας με αυτόν τον τρόπο με την Ελίζα, αλλά παρερμηνεύοντας τα κόλπα του chatbot, παρερμηνεύοντας την ομιλία του παπαγάλου ως χρήσιμες, ειλικρινείς συμβουλές ή συμπάθεια.

Joseph Weisenbaum Δημιουργός της Eliza.

Οι άνθρωποι που ήξεραν πολύ καλά ότι μιλούσαν σε μια μηχανή σύντομα ξέχασαν αυτό το γεγονός, όπως οι λάτρεις του θεάτρου παραμερίζουν για λίγο τη δυσπιστία τους και ξεχνούν ότι η δράση που παρακολουθούν δεν έχει δικαίωμα να χαρακτηριστεί αληθινή.

Οι συνομιλητές της Ελίζας ζητούσαν συχνά άδεια για μια ιδιωτική συνομιλία με το σύστημα και μετά τη συνομιλία επέμεναν, παρ' όλες τις εξηγήσεις μου, ότι το μηχάνημα τους καταλάβαινε πραγματικά.

Σε άλλες περιπτώσεις, το λάθος στην εκτίμηση της γνησιότητας μπορεί να αποβεί μοιραίο με την κυριολεκτική έννοια της λέξης. Το 2016, ένας ιδιοκτήτης ενός αυτοματοποιημένου αυτοκινήτου Tesla βασίστηκε τόσο πολύ στην φαινομενική ασφάλεια της λειτουργίας αυτόματου πιλότου που (σύμφωνα με ιστορίες) βυθίστηκε εντελώς στην παρακολούθηση των ταινιών του Χάρι Πότερ, αφήνοντας το αυτοκίνητο να κάνει τα πάντα μόνο του.

Όλα πήγαν καλά - ώσπου κάποια στιγμή έγιναν άσχημα. Έχοντας διανύσει εκατοντάδες ή και χιλιάδες μίλια χωρίς ατύχημα, το αυτοκίνητο συγκρούστηκε (με όλη τη σημασία της λέξης) με ένα απροσδόκητο εμπόδιο: ένα λευκό φορτηγό διέσχισε τον αυτοκινητόδρομο και ο Tesla όρμησε ακριβώς κάτω από το ρυμουλκούμενο, σκοτώνοντας επιτόπου τον ιδιοκτήτη του αυτοκινήτου. (Το αυτοκίνητο φάνηκε να προειδοποιεί τον οδηγό πολλές φορές να πάρει τον έλεγχο, αλλά ο οδηγός φαινόταν πολύ χαλαρός για να αντιδράσει γρήγορα.)

Το ηθικό δίδαγμα αυτής της ιστορίας είναι ξεκάθαρο: το γεγονός ότι μια συσκευή μπορεί να φαίνεται "έξυπνη" για μια στιγμή ή δύο (ακόμα και έξι μήνες) δεν σημαίνει καθόλου ότι είναι πραγματικά έτσι ή ότι μπορεί να αντεπεξέλθει σε όλες τις συνθήκες υπό τις οποίες ένα άτομο θα αντιδρούσε επαρκώς.

Το δεύτερο πρόβλημα που ονομάζουμε ψευδαίσθηση ταχείας προόδου: λάθος πρόοδος στην τεχνητή νοημοσύνη, που σχετίζεται με την επίλυση εύκολων προβλημάτων, για πρόοδο, που σχετίζεται με την επίλυση πραγματικά δύσκολων προβλημάτων. Αυτό, για παράδειγμα, συνέβη με το σύστημα IBM Watson: η πρόοδός του στο παιχνίδι Jeopardy! φαινόταν πολλά υποσχόμενο, αλλά στην πραγματικότητα το σύστημα αποδείχθηκε ότι απείχε πολύ από την κατανόηση της ανθρώπινης γλώσσας από ό,τι περίμεναν οι προγραμματιστές.

Είναι πιθανό το πρόγραμμα AlphaGo της DeepMind να ακολουθήσει τον ίδιο δρόμο. Το παιχνίδι go, όπως και το σκάκι, είναι ένα εξιδανικευμένο παιχνίδι πληροφοριών όπου και οι δύο παίκτες μπορούν να δουν ολόκληρο το ταμπλό ανά πάσα στιγμή και να υπολογίσουν τις συνέπειες των κινήσεων με ωμή βία.

Στις περισσότερες περιπτώσεις, στην πραγματική ζωή, κανείς δεν γνωρίζει τίποτα με απόλυτη βεβαιότητα. τα δεδομένα μας είναι συχνά ελλιπή ή παραμορφωμένα.

Ακόμη και στις πιο απλές περιπτώσεις, υπάρχει μεγάλη αβεβαιότητα. Όταν αποφασίζουμε αν θα πάμε στο γιατρό με τα πόδια ή θα πάρουμε το μετρό (μιας και η μέρα είναι συννεφιασμένη), δεν ξέρουμε ακριβώς πόσο καιρό θα χρειαστεί να περιμένουμε το τρένο του μετρό, αν το τρένο κολλήσει στο δρόμο, αν θα στριμώξουμε στην άμαξα σαν τη ρέγγα σε ένα βαρέλι ή θα βραχούμε στη βροχή έξω, χωρίς να τολμήσουμε να πάρουμε το μετρό, και πώς θα αντιδράσει ο γιατρός στην αργοπορία μας.

Πάντα εργαζόμαστε με τις πληροφορίες που έχουμε. Παίζοντας το Go με τον εαυτό του εκατομμύρια φορές, το σύστημα DeepMind AlphaGo δεν αντιμετώπισε ποτέ την αβεβαιότητα, απλά δεν γνωρίζει ποια είναι η έλλειψη πληροφοριών ή η ελλιπής και η ασυνέπειά του, για να μην αναφέρουμε την πολυπλοκότητα της ανθρώπινης αλληλεπίδρασης.

Υπάρχει μια άλλη παράμετρος που κάνει τα παιχνίδια μυαλού να διαφέρουν πολύ από τον πραγματικό κόσμο, και αυτό έχει να κάνει πάλι με δεδομένα. Ακόμη και πολύπλοκα παιχνίδια (αν οι κανόνες είναι αρκετά αυστηροί) μπορούν να μοντελοποιηθούν σχεδόν τέλεια, έτσι ώστε τα συστήματα τεχνητής νοημοσύνης που τα παίζουν να μπορούν να συλλέγουν εύκολα τις τεράστιες ποσότητες δεδομένων που χρειάζονται για να εκπαιδεύσουν. Έτσι, στην περίπτωση του Go, ένα μηχάνημα μπορεί να προσομοιώσει ένα παιχνίδι με ανθρώπους απλά παίζοντας ενάντια στον εαυτό του. ακόμα κι αν το σύστημα χρειάζεται terabytes δεδομένων, θα τα δημιουργήσει μόνο του.

Οι προγραμματιστές μπορούν έτσι να αποκτήσουν εντελώς καθαρά δεδομένα προσομοίωσης με μικρό ή καθόλου κόστος. Αντίθετα, στον πραγματικό κόσμο δεν υπάρχουν απόλυτα καθαρά δεδομένα, είναι αδύνατο να τα προσομοιώσεις (καθώς οι κανόνες του παιχνιδιού αλλάζουν συνεχώς) και ακόμη πιο δύσκολο είναι να συλλέξει κανείς πολλά gigabyte σχετικών δεδομένων με δοκιμή και σφάλμα.

Στην πραγματικότητα, έχουμε μόνο λίγες προσπάθειες να δοκιμάσουμε διαφορετικές στρατηγικές.

Δεν μπορούμε, για παράδειγμα, να επαναλάβουμε μια επίσκεψη στον γιατρό 10 εκατομμύρια φορές, προσαρμόζοντας σταδιακά τις παραμέτρους των αποφάσεων πριν από κάθε επίσκεψη, ώστε να βελτιώσουμε δραματικά τη συμπεριφορά μας όσον αφορά την επιλογή μεταφοράς.

Εάν οι προγραμματιστές θέλουν να εκπαιδεύσουν ένα ρομπότ για να βοηθά τους ηλικιωμένους (ας πούμε, να βοηθάει να κοιμούνται άρρωστοι), κάθε κομμάτι δεδομένων θα αξίζει πραγματικά χρήματα και πραγματικό ανθρώπινο χρόνο. δεν υπάρχει τρόπος να συλλεχθούν όλα τα απαιτούμενα δεδομένα χρησιμοποιώντας παιχνίδια προσομοίωσης. Ακόμη και τα ομοιώματα crash test δεν μπορούν να αντικαταστήσουν πραγματικούς ανθρώπους.

Είναι απαραίτητο να συλλέξετε δεδομένα για πραγματικούς ηλικιωμένους με διαφορετικά χαρακτηριστικά γεροντικών κινήσεων, σε διαφορετικούς τύπους κρεβατιών, διαφορετικούς τύπους πιτζάμες, διαφορετικούς τύπους σπιτιών και εδώ δεν μπορείτε να κάνετε λάθη, επειδή ρίχνετε ένα άτομο ακόμη και σε απόσταση πολλών εκατοστά από το κρεβάτι θα ήταν καταστροφή. Σε αυτήν την περίπτωση, διακυβεύεται μια ορισμένη πρόοδος (μέχρι στιγμής η πιο στοιχειώδης) σε αυτόν τον τομέα που έχει επιτευχθεί χρησιμοποιώντας τις μεθόδους της στενής τεχνητής νοημοσύνης. Έχουν αναπτυχθεί συστήματα υπολογιστών που παίζουν σχεδόν στο επίπεδο των καλύτερων ανθρώπινων παικτών στα βιντεοπαιχνίδια Dota 2 και Starcraft 2, όπου ανά πάσα στιγμή μόνο μέρος του κόσμου του παιχνιδιού εμφανίζεται στους συμμετέχοντες και, επομένως, κάθε παίκτης αντιμετωπίζει πρόβλημα έλλειψης πληροφοριών - αυτό με το ελαφρύ χέρι του Κλάουζεβιτς ονομάζεται «η ομίχλη του αγνώστου». Ωστόσο, τα ανεπτυγμένα συστήματα εξακολουθούν να παραμένουν πολύ στενά εστιασμένα και ασταθή στη λειτουργία τους. Για παράδειγμα, το πρόγραμμα AlphaStar που παίζει στο Starcraft 2 έχει μάθει μόνο μία συγκεκριμένη κούρσα από μια μεγάλη ποικιλία χαρακτήρων και σχεδόν καμία από αυτές τις εξελίξεις δεν μπορεί να παίξει όπως οποιαδήποτε άλλη φυλή. Και, φυσικά, δεν υπάρχει λόγος να πιστεύουμε ότι οι μέθοδοι που χρησιμοποιούνται σε αυτά τα προγράμματα είναι κατάλληλες για επιτυχείς γενικεύσεις σε πολύ πιο περίπλοκες καταστάσεις της πραγματικής ζωής. πραγματικές ζωές. Όπως έχει ανακαλύψει η IBM όχι μία, αλλά ήδη δύο φορές (πρώτα στο σκάκι και μετά στο Jeopardy!), η επιτυχία σε προβλήματα από έναν κλειστό κόσμο δεν εγγυάται καθόλου επιτυχία σε έναν ανοιχτό κόσμο.

Ο τρίτος κύκλος του περιγραφόμενου χάσματος είναι μια υπερεκτίμηση της αξιοπιστίας. Ξανά και ξανά, βλέπουμε ότι μόλις οι άνθρωποι με τη βοήθεια της τεχνητής νοημοσύνης βρουν μια λύση σε κάποιο πρόβλημα που μπορεί να λειτουργήσει χωρίς αστοχίες για λίγο, αυτόματα υποθέτουν ότι με την αναθεώρηση (και με λίγο μεγαλύτερο όγκο δεδομένων) τα πάντα θα λειτουργήσει αξιόπιστα.χρόνος. Αλλά αυτό δεν ισχύει απαραίτητα.

Παίρνουμε ξανά αυτοκίνητα χωρίς οδηγούς. Είναι σχετικά εύκολο να δημιουργήσετε ένα demo ενός αυτόνομου οχήματος που θα οδηγεί σωστά κατά μήκος σαφώς σηματοδοτημένης λωρίδας σε έναν ήρεμο δρόμο. Ωστόσο, οι άνθρωποι ήταν σε θέση να το κάνουν αυτό για περισσότερο από έναν αιώνα. Ωστόσο, είναι πολύ πιο δύσκολο να λειτουργήσουν αυτά τα συστήματα σε δύσκολες ή απροσδόκητες συνθήκες.

Όπως μας είπε σε ένα email η Missy Cummings, διευθύντρια του Εργαστηρίου Ανθρώπων και Αυτονομίας στο Πανεπιστήμιο Duke (και πρώην πιλότος του Πολεμικού Ναυτικού των ΗΠΑ), το ερώτημα δεν είναι πόσα μίλια μπορεί να διανύσει ένα αυτοκίνητο χωρίς οδηγό χωρίς ατύχημα. στο οποίο αυτά τα αυτοκίνητα μπορούν να προσαρμοστούν στις μεταβαλλόμενες καταστάσεις. Σύμφωνα με την Missy Cummings, στείλτε email στους συγγραφείς στις 22 Σεπτεμβρίου 2018., τα σύγχρονα ημιαυτόνομα οχήματα «συνήθως λειτουργούν μόνο σε ένα πολύ στενό εύρος συνθηκών, οι οποίες δεν λένε τίποτα για το πώς μπορούν να λειτουργήσουν υπό λιγότερο από ιδανικές συνθήκες».

Το να δείχνεις απόλυτα αξιόπιστο σε εκατομμύρια δοκιμαστικά μίλια στο Phoenix δεν σημαίνει ότι θα έχεις καλή απόδοση κατά τη διάρκεια του μουσώνα στη Βομβάη.

Αυτή η θεμελιώδης διαφορά μεταξύ του τρόπου συμπεριφοράς των αυτόνομων οχημάτων σε ιδανικές συνθήκες (όπως ηλιόλουστες μέρες σε προαστιακούς δρόμους πολλών λωρίδων κυκλοφορίας) και του τι μπορεί να κάνουν σε ακραίες συνθήκες μπορεί εύκολα να γίνει θέμα επιτυχίας και αποτυχίας για έναν ολόκληρο κλάδο.

Με τόσο μικρή έμφαση στην αυτόνομη οδήγηση σε ακραίες συνθήκες και ότι η τρέχουσα μεθοδολογία δεν έχει εξελιχθεί προς την κατεύθυνση της διασφάλισης ότι ο αυτόματος πιλότος θα λειτουργεί σωστά σε συνθήκες που μόλις αρχίζουν να θεωρούνται πραγματικές, μπορεί σύντομα να γίνει σαφές ότι δισεκατομμύρια δολάρια έχουν δαπανηθεί σε μεθόδους κατασκευής αυτοοδηγούμενων αυτοκινήτων που απλώς αποτυγχάνουν να προσφέρουν αξιοπιστία οδήγησης που μοιάζει με τον άνθρωπο. Είναι πιθανό για να επιτύχουμε το επίπεδο τεχνικής εμπιστοσύνης που χρειαζόμαστε, να απαιτούνται ουσιαστικά διαφορετικές προσεγγίσεις από τις τρέχουσες.

Και τα αυτοκίνητα είναι μόνο ένα παράδειγμα από πολλά παρόμοια. Στη σύγχρονη έρευνα για την τεχνητή νοημοσύνη, η αξιοπιστία της έχει υποτιμηθεί παγκοσμίως. Αυτό οφείλεται εν μέρει στο ότι οι περισσότερες από τις τρέχουσες εξελίξεις σε αυτόν τον τομέα αφορούν προβλήματα που είναι ιδιαίτερα ανεκτικά σε σφάλματα, όπως η σύσταση διαφήμισης ή η προώθηση νέων προϊόντων.

Πράγματι, αν σας προτείνουμε πέντε τύπους προϊόντων και σας αρέσουν μόνο τρία από αυτά, δεν θα συμβεί κανένα κακό. Αλλά σε μια σειρά από κρίσιμες εφαρμογές τεχνητής νοημοσύνης για το μέλλον, συμπεριλαμβανομένων των αυτοκινήτων χωρίς οδηγό, της φροντίδας ηλικιωμένων και του σχεδιασμού υγειονομικής περίθαλψης, η αξιοπιστία που μοιάζει με τον άνθρωπο θα είναι κρίσιμη.

Κανείς δεν θα αγοράσει ένα ρομπότ για το σπίτι που μπορεί να μεταφέρει με ασφάλεια τον ηλικιωμένο παππού σας στο κρεβάτι μόνο τέσσερις φορές στις πέντε.

Ακόμη και σε εκείνες τις εργασίες όπου η σύγχρονη τεχνητή νοημοσύνη θα έπρεπε θεωρητικά να εμφανίζεται με τον καλύτερο δυνατό τρόπο, συμβαίνουν τακτικά σοβαρές αποτυχίες, μερικές φορές φαίνονται πολύ αστείες. Χαρακτηριστικό παράδειγμα: οι υπολογιστές, καταρχήν, έχουν ήδη μάθει αρκετά καλά πώς να αναγνωρίζουν τι συμβαίνει (ή συμβαίνει) σε αυτήν ή εκείνη την εικόνα.

Μερικές φορές αυτοί οι αλγόριθμοι λειτουργούν εξαιρετικά, αλλά συχνά παράγουν εντελώς απίστευτα σφάλματα. Εάν δείξετε μια εικόνα σε ένα αυτοματοποιημένο σύστημα που δημιουργεί λεζάντες για φωτογραφίες καθημερινών σκηνών, συχνά λαμβάνετε μια απάντηση που είναι εντυπωσιακά παρόμοια με αυτή που θα έγραφε ένας άνθρωπος. για παράδειγμα, για την παρακάτω σκηνή, όπου μια ομάδα ανθρώπων παίζουν φρίσμπι, το σύστημα δημιουργίας υποτίτλων της Google με μεγάλη δημοσιότητα της δίνει ακριβώς το σωστό όνομα.

Εικ. 1.1. Ομάδα νεαρών που παίζουν φρίσμπι (εύλογη λεζάντα φωτογραφίας, που δημιουργείται αυτόματα από AI)
Εικ. 1.1. Ομάδα νεαρών που παίζουν φρίσμπι (εύλογη λεζάντα φωτογραφίας, που δημιουργείται αυτόματα από AI)

Αλλά πέντε λεπτά αργότερα, μπορείτε εύκολα να πάρετε μια απολύτως παράλογη απάντηση από το ίδιο σύστημα, όπως συνέβη, για παράδειγμα, με αυτήν την πινακίδα, στην οποία κάποιος κόλλησε αυτοκόλλητα: ο υπολογιστής που ονομάζεται Οι δημιουργοί του συστήματος δεν εξήγησαν γιατί παρουσιάστηκε αυτό το σφάλμα, αλλά τέτοιες περιπτώσεις δεν είναι σπάνιες. Μπορούμε να υποθέσουμε ότι το σύστημα σε αυτή τη συγκεκριμένη περίπτωση ταξινόμησε τη φωτογραφία (ίσως ως προς το χρώμα και την υφή) ως παρόμοια με τις άλλες εικόνες (από τις οποίες έμαθε) που χαρακτηρίζονται ως "ψυγείο γεμάτο με πολλά τρόφιμα και ποτά". Φυσικά, ο υπολογιστής δεν κατάλαβε (κάτι που θα μπορούσε εύκολα να καταλάβει κάποιος) ότι μια τέτοια επιγραφή θα ήταν κατάλληλη μόνο στην περίπτωση ενός μεγάλου ορθογώνιου μεταλλικού κουτιού με διάφορα (και ακόμη και τότε όχι όλα) αντικείμενα μέσα. αυτή η σκηνή είναι «ένα ψυγείο με πολλά φαγητά και ποτά».

Ρύζι. 1.2. Ψυγείο γεμάτο με πολλά τρόφιμα και ποτά (εντελώς απίθανος τίτλος, που δημιουργήθηκε από το ίδιο σύστημα όπως παραπάνω)
Ρύζι. 1.2. Ψυγείο γεμάτο με πολλά τρόφιμα και ποτά (εντελώς απίθανος τίτλος, που δημιουργήθηκε από το ίδιο σύστημα όπως παραπάνω)

Ομοίως, τα αυτοκίνητα χωρίς οδηγό συχνά αναγνωρίζουν σωστά αυτό που «βλέπουν», αλλά μερικές φορές φαίνεται να παραβλέπουν το προφανές, όπως στην περίπτωση του Tesla, το οποίο έπεσε τακτικά σε σταθμευμένα πυροσβεστικά οχήματα ή ασθενοφόρα με αυτόματο πιλότο. Τυφλά σημεία όπως αυτά μπορεί να είναι ακόμη πιο επικίνδυνα εάν βρίσκονται σε συστήματα που ελέγχουν δίκτυα ηλεκτρικής ενέργειας ή είναι υπεύθυνα για την παρακολούθηση της δημόσιας υγείας.

Για να γεφυρωθεί το χάσμα μεταξύ της φιλοδοξίας και της πραγματικότητας της τεχνητής νοημοσύνης, χρειαζόμαστε τρία πράγματα: σαφή επίγνωση των αξιών που διακυβεύονται σε αυτό το παιχνίδι, σαφή κατανόηση του γιατί τα σύγχρονα συστήματα τεχνητής νοημοσύνης δεν εκτελούν τις λειτουργίες τους αρκετά αξιόπιστα και, Τέλος, μια νέα στρατηγική ανάπτυξης μηχανικής σκέψης.

Δεδομένου ότι το διακύβευμα για την τεχνητή νοημοσύνη είναι πολύ υψηλό όσον αφορά τις θέσεις εργασίας, την ασφάλεια και τον ιστό της κοινωνίας, υπάρχει επείγουσα ανάγκη για όλους εμάς - επαγγελματίες τεχνητής νοημοσύνης, συναφή επαγγέλματα, απλοί πολίτες και πολιτικοί - να κατανοήσουμε την πραγματική κατάσταση πραγμάτων σε αυτόν τον τομέα προκειμένου να μάθουν να αξιολογούν κριτικά το επίπεδο και τη φύση της ανάπτυξης της σημερινής τεχνητής νοημοσύνης.

Ακριβώς όπως είναι σημαντικό για τους πολίτες που ενδιαφέρονται για ειδήσεις και στατιστικές να κατανοήσουν πόσο εύκολο είναι να παραπλανούν τους ανθρώπους με λέξεις και αριθμούς, έτσι και εδώ υπάρχει μια όλο και πιο σημαντική πτυχή της κατανόησης, ώστε να μπορούμε να καταλάβουμε πού βρίσκεται η τεχνητή νοημοσύνη. μόνο διαφήμιση, αλλά που ειναι αληθινο? τι μπορεί να κάνει τώρα, και τι δεν ξέρει πώς και, ίσως, δεν θα μάθει.

Το πιο σημαντικό πράγμα είναι να συνειδητοποιήσουμε ότι η τεχνητή νοημοσύνη δεν είναι μαγεία, αλλά απλώς ένα σύνολο τεχνικών και αλγορίθμων, καθένα από τα οποία έχει τα δικά του πλεονεκτήματα και αδυναμίες, είναι κατάλληλο για ορισμένες εργασίες και δεν είναι κατάλληλο για άλλες. Ένας από τους κύριους λόγους που ξεκινήσαμε να γράψουμε αυτό το βιβλίο είναι ότι πολλά από αυτά που διαβάζουμε για την τεχνητή νοημοσύνη μας φαίνονται σαν μια απόλυτη φαντασίωση, που προέρχεται από μια αβάσιμη εμπιστοσύνη στη σχεδόν μαγική δύναμη της τεχνητής νοημοσύνης.

Εν τω μεταξύ, αυτή η μυθοπλασία δεν έχει καμία σχέση με τις σύγχρονες τεχνολογικές δυνατότητες. Δυστυχώς, η συζήτηση για την τεχνητή νοημοσύνη στο ευρύ κοινό επηρεάστηκε και επηρεάζεται σε μεγάλο βαθμό από εικασίες και υπερβολές: οι περισσότεροι άνθρωποι δεν έχουν ιδέα πόσο δύσκολο είναι να δημιουργηθεί καθολική τεχνητή νοημοσύνη.

Ας διευκρινίσουμε περαιτέρω συζήτηση. Αν και η αποσαφήνιση της πραγματικότητας που σχετίζεται με την τεχνητή νοημοσύνη θα απαιτήσει σοβαρή κριτική από εμάς, εμείς οι ίδιοι δεν είμαστε σε καμία περίπτωση αντίπαλοι της τεχνητής νοημοσύνης, μας αρέσει πολύ αυτή η πλευρά της τεχνολογικής προόδου. Έχουμε ζήσει ένα σημαντικό μέρος της ζωής μας ως επαγγελματίες σε αυτόν τον τομέα και θέλουμε να εξελιχθεί όσο το δυνατόν γρηγορότερα.

Ο Αμερικανός φιλόσοφος Hubert Dreyfus έγραψε κάποτε ένα βιβλίο για το ποια ύψη, κατά τη γνώμη του, δεν μπορεί ποτέ να φτάσει η τεχνητή νοημοσύνη. Δεν πρόκειται για αυτό το βιβλίο. Επικεντρώνεται εν μέρει σε αυτό που δεν μπορεί να κάνει η τεχνητή νοημοσύνη επί του παρόντος και γιατί είναι σημαντικό να το κατανοήσουμε, αλλά ένα σημαντικό μέρος του μιλά για το τι θα μπορούσε να γίνει για να βελτιωθεί η σκέψη του υπολογιστή και να επεκταθεί σε τομείς όπου τώρα δυσκολεύεται να κάνει πρώτα.

Δεν θέλουμε να εξαφανιστεί η τεχνητή νοημοσύνη. Θέλουμε να βελτιωθεί, επιπλέον, ριζικά, ώστε να μπορούμε πραγματικά να βασιστούμε σε αυτό και να λύσουμε με τη βοήθειά του τα πολλά προβλήματα της ανθρωπότητας. Έχουμε πολλές επικρίσεις για την τρέχουσα κατάσταση της τεχνητής νοημοσύνης, αλλά η κριτική μας είναι μια εκδήλωση αγάπης για την επιστήμη που κάνουμε, όχι μια έκκληση να τα παρατήσουμε και να εγκαταλείψουμε τα πάντα.

Εν ολίγοις, πιστεύουμε ότι η τεχνητή νοημοσύνη μπορεί πράγματι να μεταμορφώσει σοβαρά τον κόσμο μας. αλλά πιστεύουμε επίσης ότι πολλές από τις βασικές υποθέσεις σχετικά με την τεχνητή νοημοσύνη πρέπει να αλλάξουν πριν μπορέσουμε να μιλήσουμε για πραγματική πρόοδο. Η προτεινόμενη "επαναφορά" της τεχνητής νοημοσύνης δεν είναι καθόλου λόγος για να βάλουμε ένα τέλος στην έρευνα (αν και κάποιοι μπορεί να καταλαβαίνουν το βιβλίο μας ακριβώς με αυτό το πνεύμα), αλλά μάλλον μια διάγνωση: πού έχουμε κολλήσει τώρα και πώς θα βγούμε από η σημερινή κατάσταση.

Πιστεύουμε ότι ο καλύτερος τρόπος για να προχωρήσουμε μπορεί να είναι να κοιτάξουμε προς τα μέσα, αντιμετωπίζοντας τη δομή του νου μας.

Οι πραγματικά ευφυείς μηχανές δεν χρειάζεται να είναι ακριβή αντίγραφα των ανθρώπων, αλλά όποιος κοιτάξει την τεχνητή νοημοσύνη με ειλικρίνεια θα δει ότι υπάρχουν ακόμα πολλά να μάθουν από τους ανθρώπους, ειδικά από μικρά παιδιά, τα οποία είναι από πολλές απόψεις πολύ ανώτερα από τις μηχανές στο την ικανότητά τους να απορροφούν και να κατανοούν νέες έννοιες.

Οι επιστήμονες της ιατρικής συχνά χαρακτηρίζουν τους υπολογιστές ως «υπεράνθρωπα» (με τον ένα ή τον άλλο τρόπο) συστήματα, αλλά ο ανθρώπινος εγκέφαλος εξακολουθεί να είναι πολύ ανώτερος από τους αντίστοιχους πυριτίου σε τουλάχιστον πέντε πτυχές: μπορούμε να κατανοήσουμε τη γλώσσα, μπορούμε να κατανοήσουμε τον κόσμο, μπορούμε με ευελιξία προσαρμοστούμε στις νέες συνθήκες, μπορούμε να μάθουμε γρήγορα νέα πράγματα (ακόμα και χωρίς μεγάλους όγκους δεδομένων) και μπορούμε να συλλογιστούμε μπροστά σε ελλιπείς, ακόμη και αντικρουόμενες πληροφορίες. Σε όλα αυτά τα μέτωπα, τα σύγχρονα συστήματα τεχνητής νοημοσύνης βρίσκονται απελπιστικά πίσω από τους ανθρώπους.

Επανεκκίνηση τεχνητής νοημοσύνης
Επανεκκίνηση τεχνητής νοημοσύνης

Τεχνητή Νοημοσύνη: Η επανεκκίνηση θα ενδιαφέρει τους ανθρώπους που θέλουν να κατανοήσουν τις σύγχρονες τεχνολογίες και να κατανοήσουν πώς και πότε μια νέα γενιά τεχνητής νοημοσύνης μπορεί να κάνει τη ζωή μας καλύτερη.

Συνιστάται: