Την απαγόρευση κατασκευής αυτόνομων οπλικών συστημάτων ζητούν χίλιοι επιστήμονες
Πολλοί ειδικοί πιστεύουν ότι τα οπλικά συστήματα τεχνητής νοημοσύνης θα λειτουργούν ανεξέλεγκτα και θα στραφούν εναντίον των δημιουργών τους, δηλαδή των ανθρώπων
Μια νέα παγκόσμια κούρσα εξοπλιστικών ανταγωνισμών, η οποία αυτή τη φορά θα αφορά τα αυτόνομα οπλικά συστήματα που βασίζονται στην τεχνητή νοημοσύνη, είναι σχεδόν βέβαιο ότι θα ξεσπάσει τα επόμενα χρόνια, εκτός και οι κυβερνήσεις απαγορεύσουν έγκαιρα αυτά τα επικίνδυνα όπλα.
Τη σχετική έκκληση-προειδοποίηση απηύθυναν πάνω από 1.000 επιστήμονες και ειδικοί της τεχνολογίας, με επικεφαλής τον διάσημο αστροφυσικό Στίβεν Χόκινγκ, οι οποίοι έδωσαν στη δημοσιότητα ανοικτή επιστολή προς τα κράτη και κάθε αρμόδιο διεθνή οργανισμό.
Η προειδοποίηση
Την πρωτοβουλία είχε η οργάνωση «Future of Life Institute» (Ινστιτούτο για το Μέλλον της Ζωής) και η επιστολή παρουσιάσθηκε σε διεθνή συνδιάσκεψη για την τεχνητή νοημοσύνη στο Μπουένος Αϊρες. Μεταξύ άλλων, την επιστολή συνυπογράφουν ο δισεκατομμυριούχος επιχειρηματίας Έλον Μασκ (Tesla, SpaceX, Pay Pal κ.α.), ο συνιδρυτής της Apple Στιβ Βόζνιακ, ο επικεφαλής της Google Deep Mind Ντέμης Χασάμπης, ο διάσημος γλωσσολόγος Νόαμ Τσόμσκι κ.α.
«Η κατάληξη της σημερινής τεχνολογικής πορείας είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Καλάσνικοφ του αύριο. Το βασικό ερώτημα για την ανθρωπότητα σήμερα, είναι αν θα ξεκινήσει μια παγκόσμια κούρσα εξοπλισμών τεχνητής νοημοσύνης ή αν θα εμποδίσει να αρχίσει κάτι τέτοιο», τονίζεται στην επιστολή-προειδοποίηση.
Οι συνυπογράφοντες επισημαίνουν ότι «η τεχνολογία της τεχνητής νοημοσύνης έχει φθάσει σε ένα σημείο όπου η ανάπτυξη αυτόνομων όπλων είναι -πρακτικά, αν όχι και νομικά- εφικτή μέσα στα επόμενα χρόνια, όχι δεκαετίες. Αυτά που διακυβεύονται, είναι σημαντικά: Τα αυτόνομα όπλα έχουν περιγραφεί ως η τρίτη επανάσταση στους εξοπλισμούς, μετά την πυρίτιδα και τα πυρηνικά όπλα».
Οι φόβοι
Οι επιστήμονες και οι ρομποτιστές αναφέρουν ότι από τη μια η τεχνητή νοημοσύνη μπορεί όντως να χρησιμοποιηθεί για να καταστήσει πιο ασφαλές το πεδίο της μάχης για το στρατιωτικό προσωπικό. Από την άλλη όμως, τα επιθετικά όπλα που θα λειτουργούν με δική τους πρωτοβουλία, θα οδηγήσουν τελικά σε μεγαλύτερη απώλεια ανθρώπινων ζωών.
Θεωρείται δεδομένο, όπως επισημαίνεται, πως αν μια χώρα αναπτύξει πρώτη τέτοια οπλικά συστήματα, που θα καταστρέφουν τους στόχους τους χωρίς καμία ανθρώπινη παρέμβαση, τότε άλλες χώρες θα απαντήσουν και ένας φαύλος κύκλος ανταγωνιστικών εξοπλισμών θα γίνει πραγματικότητα, με συνέπεια αυτά τα όπλα να υπάρχουν διάσπαρτα στη Γη, όπως τα καλάσνικοφ.
Μάλιστα, αντίθετα από τα πυρηνικά όπλα, τα ρομποτικά όπλα θα είναι δύσκολο να ελεγχθούν με παρόμοιο τρόπο, ενώ κάλλιστα μπορεί να πέσουν στα χέρια τρομοκρατών και εγκληματιών.
Ο Χόκινγκ και η «παρέα» του ζητούν να υπάρξει μια απαγόρευση σε επίπεδο Οργανισμού Ηνωμένων Εθνών, προτού είναι πολύ αργά για να μπει ξανά «το τζίνι στο μπουκάλι».
Στο πρόσφατο παρελθόν, προσωπικότητες όπως ο βρετανός αστροφυσικός και ο Μασκ έχουν προειδοποιήσει ότι η τεχνητή νοημοσύνη συνιστά «επίκληση δαιμόνων» και «τη μεγαλύτερη υπαρξιακή απειλή», που μπορεί να φέρει το τέλος της ανθρωπότητας.
Πηγή: Το Βήμα science
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Εδώ κάθε αναγνώστης μπορεί να εκφράσει την γνώμη του ελεύθερα και χωρίς λογοκρισία.
Ωστόσο δεν σημαίνει ότι τις απόψεις του κάθε σχολιαστή τις υιοθετούμε.
Οι διαχειριστές του blog διατηρούν το δικαίωμα αν πέσει στην αντίληψη τους υβριστικά σχόλια που θίγουν ανθρώπινες αξιοπρέπειες, να διαγράψουν τα σχόλια αυτά.
Σε περίπτωση που δεν έχει πέσει στην αντίληψη μας κάποιο σχόλιο που σας συκοφαντεί η σας εκθέτη επικοινωνήστε μαζί μας στο email agkathi.salamis@yahoo.gr αναφέροντας μας ποιο σχόλιο σας αφορά και σε ποια ανάρτηση έχει δημοσιευθεί.
Ευχαριστώ.