WebTech Rodos: Οι ταξιδιώτες χρησιμοποιούν σήμερα όλο και περισσότερα εργαλεία, όπως το ChatGPT, για να πάρουν ιδέες για τα ταξίδια τους, αλλά τελικά καταλήγουν σε προορισμούς που δεν υπάρχουν στον χάρτη…
Ο Μιγκέλ Άνγκελ Γκονζόρα Μέζα, ιδιοκτήτης ταξιδιωτικού πρακτορείου, βρισκόταν σε μια αγροτική πόλη του Περού και προετοιμαζόταν για μια πεζοπορία στις Άνδεις, όταν άκουσε μια περίεργη συζήτηση: Δύο τουρίστες συζητούσαν για τα σχέδιά τους να κάνουν πεζοπορία μόνοι τους στα βουνά μέχρι το «Ιερό Φαράγγι του Humantay».
Φυσικά, αυτό το μέρος δεν υπήρχε στη χώρα και οι τουρίστες πλήρωσαν για να βρεθούν σε έναν ανύπαρκτο προορισμό.
Αλλά αυτό το φαινομενικά αθώο λάθος μπορούσε να αποβεί και μοιραίο, καθώς όπως εξηγεί, η παραπληροφόρηση θα μπορούσε να τους οδηγήσει σε επικίνδυνα μονοπάτια, σε μεγάλο υψόμετρο, χωρίς οξυγόνο, οδηγό και σήμα στο κινητό.
Σύμφωνα με το BBC, μέσα σε λίγα μόνο χρόνια, τα εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT, το Microsoft Copilot και το Google Gemini έχουν εξελιχθεί σε αναπόσπαστο κομμάτι σχεδιασμού ταξιδιών για εκατομμύρια ανθρώπους. Σύμφωνα με μια έρευνα, το 30% των διεθνών ταξιδιωτών χρησιμοποιεί πλέον εργαλεία τεχνητής νοημοσύνης και ειδικούς ιστότοπους τεχνητής νοημοσύνης για ταξίδια, όπως το Wonderplan και το Layla, για να οργανώσει τις εξορμήσεις του.
Αν και αυτά τα προγράμματα μπορούν να προσφέρουν πολύτιμες ταξιδιωτικές συμβουλές όταν λειτουργούν σωστά, μπορούν επίσης να οδηγήσουν τους ανθρώπους σε κάποιες απογοητευτικές ή ακόμα και επικίνδυνες καταστάσεις, όταν δεν λειτουργούν.
Αυτό είναι ένα μάθημα που παίρνουν κάποιοι ταξιδιώτες όταν φτάνουν στον προορισμό τους και διαπιστώνουν πως τους έχουν δοθεί λανθασμένες πληροφορίες ή ότι έχουν οδηγηθεί σε ένα μέρος που έχει δημιουργηθεί με τη φαντασία ενός ρομπότ.
Η Ντάνα Γιάο και ο σύζυγός της το βίωσαν από πρώτο χέρι. Χρησιμοποίησαν το ChatGPT για να οργανώσουν μια ρομαντική πεζοπορία στην κορυφή του όρους Misen, στο ιαπωνικό νησί Itsukushima. Αφού εξερεύνησαν την πόλη Miyajima χωρίς προβλήματα, ξεκίνησαν στις 15:00 για να ανέβουν στην κορυφή του βουνού για να προλάβουν το ηλιοβασίλεμα, ακριβώς όπως τους είχε υποδείξει το ChatGPT.
Όταν όμως επιχείρησαν να κατέβουν το βουνό, το τελεφερίκ ήταν κλειστό, ενώ το ChatGPT τους είχε δώσει άλλες πληροφορίες. Έτσι έμειναν στην κορυφή του βουνού χωρίς να έχουν τρόπο να επιστρέψουν.
Σε άλλο περιστατικό, το 2024, ο ταξιδιωτικός πράκτορας τεχνητής νοημοσύνης Layla ανέφερε σε χρήστες πως υπήρχε πύργος του Άιφελ στο Πεκίνο, ενώ σε έναν Βρετανό είχε προτείνει να κάνει μαραθώνιο σε διαδρομή στη βόρεια Ιταλία που δεν γινόταν.
Σύμφωνα με μια έρευνα του 2024, το 37% των ερωτηθέντων που χρησιμοποίησαν τεχνητή νοημοσύνη για να σχεδιάσουν τα ταξίδια τους ανέφεραν ότι δεν μπορούσε να τους παρέχει αρκετές πληροφορίες, ενώ περίπου το 33% δήλωσε ότι οι προτάσεις που τους έδωσε περιείχαν ψευδείς πληροφορίες.
Αυτά τα ζητήματα προκύπτουν από τον τρόπο με τον οποίο η τεχνητή νοημοσύνη δημιουργεί τις απαντήσεις της.
Όπως εξηγεί ο Ραγίντ Γκάνι, διακεκριμένος καθηγητής μηχανικής μάθησης στο Πανεπιστήμιο Carnegie Mellon, προγράμματα όπως το ChatGPT μπορεί να φαίνεται ότι δίνουν λογικές και χρήσιμες συμβουλές. Αλλά τρόπος με τον οποίο λαμβάνουν αυτές τις πληροφορίες δείχνει ότι δεν μπορούμε να είμαστε ποτέ απόλυτα σίγουροι.
«Δεν ξέρει τη διαφορά μεταξύ ταξιδιωτικών συμβουλών, οδηγιών ή συνταγών», λέει ο ειδικός. «Ξέρει μόνο λέξεις. Έτσι, συνεχίζει να γράφει λέξεις που ακούγονται ρεαλιστικές», σημειώνει.
*Η φωτογραφία της κεντρικής εικόνας είναι αποτέλεσμα ΑΙ και δείχνει τον πύργο του Άιφελ στο Πεκίνο
Πηγή: skai.gr
..
..
πηγή: skai.gr