Μια νέα επιστημονική έρευνα αποκαλύπτει σημαντικές διαφορές στον τρόπο συλλογιστικής των ανθρώπων και της τεχνητής νοημοσύνης, εγείροντας νέους προβληματισμούς για τη χρήση του AI.
Η διαφορά στην επεξεργασία δεδομένων και το πρόβλημα της αναλογικής σκέψης
Η μελέτη, που δημοσιεύτηκε τον Φεβρουάριο του 2025 στο περιοδικό «Transactions on Machine Learning Research», εξέτασε την ικανότητα των μεγάλων γλωσσικών μοντέλων (LLMs) να σχηματίζουν αναλογίες. Σύμφωνα με την έρευνα, οι άνθρωποι εγκέφαλοι ανταποκρίνονται καλά σε αναλογίες που περιλαμβάνουν γράμματα και αριθμητικά μοτίβα, ενώ η απόδοση της AI μειώνεται σημαντικά όσο περισσότερο αυξάνεται η πολυπλοκότητα. Ταυτόχρονα, τα ευρήματα έδειξαν ότι το AI τείνει να παραφράσει όταν η βάση δεδομένων του δεν του προσφέρει κατάλληλη απάντηση.
Η συν-συγγραφέας της μελέτης, Μάρθα Λιούις, αναπληρώτρια καθηγήτρια νευροσυμβολικής AI στο Πανεπιστήμιο του Άμστερνταμ, εξηγεί χαρακτηριστικά:
«Οι αναλογίες με σειρές γραμμάτων έχουν τη μορφή “αν το abcd γίνεται abce, τότε τι γίνεται το ijkl;”. Οι περισσότεροι άνθρωποι θα απαντήσουν “ijkm” και [η AI] τείνει επίσης να δίνει αυτήν την απάντηση».
Ωστόσο, τα πράγματα αλλάζουν όταν το AI καλείται να απαντήσει σε πιο δύσκολα προβλήματα:
«Ένα άλλο πρόβλημα που μπορεί να ρωτήσουμε είναι “αν το abbcd γίνεται abcd, τότε τι γίνεται το ijkkl;” Οι άνθρωποι τείνουν να απαντούν “ijkl”, δηλαδή το μοτίβο λύνεται με το να αφαιρεθεί το επαναλαμβανόμενο στοιχείο. Αλλά το GPT-4 τείνει να κάνει λάθος σε τέτοια προβλήματα».
Η αδυναμία γενίκευσης που έχει το ΑΙ
Η Λιούις τονίζει ότι οι άνθρωποι μπορούν να αναλύουν και να κατανοούν συγκεκριμένα μοτίβα και έπειτα να τα μετατρέπουν σε γενικούς κανόνες.
Ωστόσο, αυτό είναι κάτι που η τεχνητή νοημοσύνη και τα γλωσσικά μοντέλα LLMs δεν μπορούν να κάνουν.
«Είναι καλά στην αναγνώριση και αντιστοίχιση μοτίβων, αλλά όχι στη γενίκευση αυτών των μοτίβων».
Οι περισσότερες εφαρμογές AI βασίζονται στον όγκο των δεδομένων και την ανάλυση τους: όσο περισσότερα δεδομένα υπάρχουν διαθέσιμα, τόσο περισσότερα μοτίβα αναγνωρίζονται. Ωστόσο, σύμφωνα με τη Λιούις, η ανάλυση των μοτίβων με την εξαγωγή συμπερασμάτων με βάση τα μοτίβα αυτά, δεν είναι το ίδιο πράγμα:
«Είναι λιγότερο θέμα του τι υπάρχει στα δεδομένα και περισσότερο πώς χρησιμοποιούνται τα δεδομένα».
Οι κίνδυνοι της χρήσης του AI
Η έρευνα αναδεικνύει ότι οι συνέπειες της έλλειψης αναλογικής σκέψης μπορεί να είναι σοβαρές σε πραγματικές συνθήκες.
Για παράδειγμα, η AI χρησιμοποιείται όλο και περισσότερο στον νομικό τομέα για την έρευνα, την ανάλυση δικαστικών αποφάσεων και για να προτείνει ποινές. Ωστόσο, η έρευνα δείχνει ότι εξαιτίας της χαμηλότερης ικανότητας αναλογικής σκέψης που διαθέτει, πρέπει να λάβουμε υπόψη μας ότι το AI μπορεί να αποτύχει να κατανοήσει στο πως να εφαρμόσει τους νομικούς κανόνες σε παρόμοιες υποθέσεις που ανήκουν μεν στην ίδια νομική σφαίρα, άλλα είναι ελαφρώς διαφορετικές μεταξύ τους.
Η μελέτη καταλήγει ότι, δεδομένης αυτής της αδυναμίας, είναι κρίσιμο να αξιολογούμε τα συστήματα AI όχι μόνο για την ακρίβειά τους, αλλά και για τη γνωστική τους ανθεκτικότητα.
www.real.gr