Udhëtime me ChatGPT? Ekspertët paralajmërojnë: Kujdes, jo gjithçka që thotë është e vërtetë

by informim peje

Nga perëndimi i diellit që humbi në Japoni, te kanionet fantazmë në Peru – Inteligjenca Artificiale po i ngatërron turistët me informacione të pasakta dhe destinacione të sajuara. Ekspertët paralajmërojnë: verifikoni çdo detaj.

Inteligjenca Artificiale po bëhet gjithnjë e më shumë pjesë e planifikimit të udhëtimeve. Por, në vend që t’u kursejë kohë turistëve, në disa raste po i dërgon drejt aventurave të rreme – ose më keq, në rrezik.

banner

Në një fshat të largët malor në Peru, një ciceron vendas mbeti i habitur kur dëgjoi dy turistë të huaj duke pyetur për drejtimin që të çon në “kanionin e shenjtë Humantay”. Problemi? Ky vend nuk ekziston në asnjë hartë, guidë apo rrëfim lokal.

Ky nuk është një rast i izoluar. Në Japoni, një çift përdori ChatGPT për të planifikuar një shëtitje romantike në malin Misen, me shpresën për të kapur perëndimin e diellit nga maja. Ndërsa pamja rezultoi magjike, kthimi u shndërrua në stres: stacioni i teleferikut për zbritje ishte mbyllur më herët nga sa u kishte thënë AI. Si pasojë, çifti u detyrua të zbresë në këmbë në errësirë.

Sipas një raporti të publikuar nga BBC në vitin 2024, inteligjenca artificiale ka “krijuar” në disa raste destinacione që nuk ekzistojnë, si një kullë të ngjashme me Eiffel-in në Pekin, ose ka dhënë itinerare të pamundura përmes qyteteve italiane që nuk lidhen mes tyre në mënyrën e sugjeruar.

Një sondazh i fundit tregon se 37% e përdoruesve që kanë përdorur AI për planifikimin e udhëtimeve e kanë gjetur informacionin të paplotë ose jo të besueshëm. 33% raportuan gabime të drejtpërdrejta, përfshirë orare të pasakta, vendndodhje që nuk ekzistojnë dhe këshilla logjikisht të pamundura.

Ekspertët e teknologjisë dhe turizmit paralajmërojnë se përdoruesit duhet të jenë shumë më të kujdesshëm në mënyrën se si ndërveprojnë me këto platforma.

“Nuk mjafton të bësh një pyetje të përgjithshme. AI shpesh ‘mbush boshllëqet’ kur nuk ka informacion të saktë, duke krijuar përgjigje që tingëllojnë bindshëm, por nuk janë të verifikuara,” shprehet një studiues i etisë së inteligjencës artificiale nga Universiteti i Oksfordit.

Aktualisht, qeveri në BE, SHBA dhe vende të tjera janë duke shqyrtuar vendosjen e etiketimeve ose watermark-ëve në përgjigjet e gjeneruara nga AI, për të sinjalizuar nivelet e pasigurisë ose burimet e përdorura. Por për shumë ekspertë, kjo nuk është e mjaftueshme.

Si të mbroheni:

Bëni pyetje sa më specifike, përfshirë datën, vendndodhjen dhe burimin e informacionit.

Verifikoni gjithmonë me burime zyrtare: faqet e transportit, guidat lokale, ose organizatat turistike.

Mos mbështetuni vetëm te AI – përdorni atë si ndihmë, jo si autoritet përfundimtar.

Në epokën ku udhëtimet mund të planifikohen nga telefoni në xhep, duket se një nga mjetet më të fuqishme të teknologjisë moderne po na kujton një të vërtetë të vjetër: jo çdo rrugë që të shfaqet, të çon në destinacionin e duhur.

banner

Të ngjajshme

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy