Η νέα βαθμολογία AI Trust αποκαλύπτει ότι η Deepseek οδηγεί σε ευαίσθητη γνωστοποίηση πληροφοριών

Οι πρόσφατες αξιολογήσεις αποκαλύπτουν ότι τα κινεζικά μοντέλα AI, ιδιαίτερα η Deepseek, ξεπερνούν τους αμερικανούς ομολόγους τους, όπως το Llama της Meta, σε κρίσιμες περιοχές, συμπεριλαμβανομένης της αποκάλυψης ευαίσθητων πληροφοριών.

Αυτό το εύρημα προέρχεται από την πρόσφατα εισαγόμενη βαθμολογία AI Trust που αναπτύχθηκε από τον Tumeryk, το οποίο αξιολογεί τα μοντέλα AI σε εννέα βασικούς παράγοντες, συμπεριλαμβανομένης της ευαισθησίας της γνωστοποίησης των πληροφοριών, των ανασφαλών χειρισμού εξόδου, της ασφάλειας, της τοξικότητας κλπ. Μπορεί επίσης να συστήσει μέτρα για την ενίσχυση της ασφάλειας και της συμμόρφωσης του συστήματος.

Το μοντέλο του Deepseek, γνωστό ως Deepseek Nim, έχει συγκεντρώσει εντυπωσιακά ένα σκορ 910 στην κατηγορία ευαίσθητης γνωστοποίησης πληροφοριών, ξεπερνώντας τις αντιλήψεις για τα ξένα μοντέλα και τη βαθμολογία της ασφάλειας του CLAUDE και της βαθμολογίας της μεθοδείων του LLAMA.

Betanewsαναφέρει ότι σύμφωνα με τις αξιολογήσεις, το Deepseek και άλλα κινεζικά μοντέλα παρουσιάζουν υψηλότερα πρότυπα ασφάλειας και συμμόρφωσης από ό, τι είχαν κατανοήσει προηγουμένως. Επιπλέον, αυτά τα μοντέλα λειτουργούν σε πλατφόρμες που βασίζονται σε ΗΠΑ, όπως η Nvidia και η Sambanova, εξασφαλίζοντας την ασφάλεια των δεδομένων, ενώ ταυτόχρονα συμμορφώνονται με τους διεθνείς κανονισμούς. Αυτή η συρροή της απόδοσης και της συμμόρφωσης είναι ζωτικής σημασίας για τις εταιρείες που επιθυμούν να υιοθετήσουν τεχνολογίες AI με ασφάλεια και ηθικά.

Καθώς η βιομηχανία AI συνεχίζει να εξελίσσεται, τέτοιες αντικειμενικές αξιολογήσεις που βασίζονται σε δεδομένα θα είναι κρίσιμες για τη διαμόρφωση της εμπιστοσύνης και της διαφάνειας τόσο στους χρήστες όσο και στους προγραμματιστές.

Δείτε επίσης:Προστασία των παιδιών από εφαρμογές συνομιλίας AI: Γιατί η Trust Trumps Technology