Το «μεγάλο κόκκινο κουμπί» της Google σκοτώνει την τεχνητή νοημοσύνη πριν μπορέσει να μας σκοτώσει

Το «μεγάλο κόκκινο κουμπί» της Google σκοτώνει την τεχνητή νοημοσύνη πριν μπορέσει να μας σκοτώσει

GoogleDeepMind-Logotype-Vertical_Black
Η Google δεν θα αφήσει τα ρομπότ να αναλάβουν.
Φωτογραφία: Google

Η ομάδα DeepMind της Google συνεργάζεται με επιστήμονες για να δημιουργήσει έναν τρόπο με τον οποίο οι άνθρωποι θα μπορούν να σκοτώνουν πράκτορες τεχνητής νοημοσύνης προτού μπορέσουν να μας στραφούν.

Είναι μια ανησυχία που πολλοί έχουν καθώς τα συστήματα AI που αναπτύσσονται από τεχνολογικούς γίγαντες γίνονται πιο έξυπνα και πιο ικανά - αλλά η Google μας καλύπτει.

Η Google απέκτησε το DeepMind για περίπου 400 εκατομμύρια δολάρια το 2014 και έκτοτε, η εταιρεία έχει κάνει απίστευτα πράγματα με αυτό. Το πιο πρόσφατο επίτευγμά του ήταν να κερδίσει έναν από τους παίκτες της Go με την υψηλότερη βαθμολογία, τον Lee Sedol, 4-1 σε έναν αγώνα πέντε παιχνιδιών.

Αυτό που είναι υπέροχο για τεχνολογίες όπως το DeepMind είναι ότι μαθαίνουν πάντα και γίνονται μεγαλύτεροι σε αυτό που κάνουν. Τώρα ακόμη και οι δημιουργοί τους ανησυχούν για το τι μπορεί να συμβεί εάν το AI αποφασίσει ότι δεν θέλει πλέον να ελέγχεται από έναν άνθρωπο.

Σε μια εργασία με τίτλο «Ασφαλώς διακόπτοντες πράκτορες», Επιστήμονες στο DeepMind και στο Πανεπιστήμιο της Οξφόρδης αποκαλύπτουν το σχέδιό τους για αυτό το σενάριο.

«Εάν ένας τέτοιος πράκτορας λειτουργεί σε πραγματικό χρόνο υπό την επίβλεψη του ανθρώπου, από καιρό σε καιρό μπορεί να χρειαστεί ένας ανθρώπινος χειριστής να πατήσει το μεγάλο κόκκινο κουμπί για να αποτρέψει την παράγοντας από τη συνέχιση μιας επιβλαβούς αλληλουχίας ενεργειών - επιβλαβείς είτε για τον παράγοντα είτε για το περιβάλλον - και οδηγεί τον παράγοντα σε ασφαλέστερη κατάσταση », ανέφερε η εφημερίδα. εξηγεί.

Η εφημερίδα επιβεβαιώνει επίσης ότι υπάρχει ένα «πλαίσιο» που επιτρέπει σε έναν άνθρωπο να παρέμβει με ασφάλεια με AI, ενώ ταυτόχρονα διασφαλίζει ότι η AI δεν μπορεί να μάθει πώς να τα αποτρέπει διακοπές.

«Η ασφαλής διακοπή μπορεί να είναι χρήσιμη για να αναλάβει τον έλεγχο ενός ρομπότ που δεν συμπεριφέρεται σωστά και μπορεί να οδηγήσει σε μη αναστρέψιμες συνέπειες ή να το βγάλει από μια ευαίσθητη κατάσταση», συνεχίζει η εφημερίδα.

Έτσι, βασικά, πρέπει απλώς να έχουμε εμπιστοσύνη ότι αυτά τα συστήματα θα λειτουργήσουν. Οι ερευνητές λένε ότι το κάνουν με κάποιους αλγόριθμους, αλλά άλλοι πρέπει να προσαρμοστούν. Και δεν είναι ξεκάθαρο αν όλα "μπορούν εύκολα να γίνουν ασφαλώς διακοπτόμενα".

Μέσω: Business Insider

Τελευταία δημοσίευση ιστολογίου

| Cult of Mac
September 10, 2021

Το Parallels Enterprise διευκολύνει τη μαζική εγκατάσταση των Windows σε Mac [Feature]Το Parallels προσφέρει εργαλεία και οδηγίες για μαζικές εφαρμ...

| Cult of Mac
September 10, 2021

Το macOS Big Sur 11.2.1 διορθώνει το ενοχλητικό σφάλμα φόρτισης του MacBook ProΒάλτε το macOS Big Sur 11.2.1 στο παλαιότερο MacBook Pro σας εάν αντ...

| Cult of Mac
September 10, 2021

Τι αποκαλύπτει το γιγαντιαίο διαστημόπλοιο του Steve Jobs για την AppleΕμείς οι παρατηρητές της Apple διαβάζουμε για πάντα ό, τι φύλλα τσαγιού είνα...