Τεχνητή νοημοσύνη επιστρατεύει η Wikipedia ενάντια στα τρολλ…

Η πασίγνωστη διαδικτυακή εγκυκλοπαίδεια “Wikipedia”, πρόκειται σύντομα να ενσωματώσει μια νέα υπηρεσία τεχνητής νοημοσύνης, με στόχο τη βελτίωση του περιεχομένου και τη διευκόλυνση των εθελοντών συντακτών της.

A.I. εναντίον “troll”

Ένα από τα χρόνια και μεγάλα προβλήματα που αντιμετωπίζουν οι συνεργάτες της Wikipedia, είναι η κακόβουλη επεξεργασία των άρθρων που φιλοξενεί, ή η μή εσκεμμένη εισαγωγή λανθασμένων πληροφοριών σε αυτά.

Με περίπου 500.000 αλλαγές σε υπάρχοντα κείμενα, ή προσθήκες νέων λημμάτων ημερησίως, είναι πρακτικά αδύνατο να υπάρξει ο απαραίτητος έλεγχος ποιότητας και ορθότητας κάθε άρθρου από ανθρώπους – οι οποίοι είναι κατά πλειοψηφία μάλιστα εθελοντές.

wiki_art_3

Η νέα λειτουργία ονομάζεται “Objective Revision Evaluation Service” (ORES) και θα εστιάζει στον εντοπισμό τέτοιων προβληματικών επεξεργασιών. Βασίζεται σε ένα σύνολο ανοιχτού κώδικα API και αλγορίθμων μηχανικής μάθησης, που επιτρέπουν στο σύστημα να «μάθει» πως να διακρίνει την ποιότητα κάθε αλλαγής στα άρθρα και να αποφασίζει κατά πόσο αυτή αποτελεί ανθρώπινο λάθος ή κακόβουλη ενέργεια.

Μια…συγκρατημένη τεχνητή νοημοσύνη!

Το σύστημα ORES δεν είναι η πρώτη απόπειρα εφαρμογής κάποιου τύπου τεχνητής νοημοσύνης για το «ξεσκαρτάρισμα» της on-line εγκυκλοπαίδειας. Εργαλεία αυτόματου ελέγχου, όπως τα Huggle και STiki, αλλά και bots, σαν το ClueBot NG, χρησιμοποιούνται μέχρι σήμερα για ανάλογες εργασίες. Τα συγκεκριμένα όμως, επιδεικνύουν συχνά «υπερβάλλοντα ζήλο», επισημαίνοντας άρθρα και προσθήκες νέων – χωρίς εμπειρία – συντακτών ως κακόβουλες ενέργειες, μόνο και μόνο επειδή αυτά δεν έχουν συνταχθεί ακριβώς κατά τον τρόπο που ορίζουν οι κανόνες της Wikipedia.

wiki_art_4

Χάρη στο ORES, θα αποφευχθούν στο μέλλον τέτοια φαινόμενα. Ο Aaron Halfaker, επιστημονικός συνεργάτης του οργανισμού Wikimedia, δήλωσε: «Υποψιάζομαι ότι οι υπερβολές κατά τον ποιοτικό έλεγχο, γίνονται επειδή οι εθελοντές υποχρεώνονται να βγάλουν συμπεράσματα πολύ γρήγορα και δεν ενθαρρύνονται να αλληλεπιδράσουν με το άλλο πρόσωπο (σ.σ. που έγραψε ή επεξεργάστηκε το άρθρο). Τώρα ένα εργαλείο θα τους προειδοποιεί, ότι ίσως πρέπει να είναι προσεκτικοί και να ενημερώσουν τον αρχικό συντάκτη με ένα μήνυμα».

Ο Halfaker εκτιμά ότι το νέο λογισμικό θα γίνει αποδεκτό από τον κόσμο της Wikipedia, παρότι η χρήση του βέβαια δεν είναι υποχρεωτική. Ο ίδιος επισημαίνει: «Κατά κάποιο τρόπο είναι δύσκολο να εισαχθεί ένα τέτοιο σύστημα τεχνητής νοημοσύνης και μηχανικής μάθησης σε μια μαζική, κοινωνική, κατάσταση, αλλά δεν βλέπω το λόγο αυτό που κάνουμε να αντιμετωπιστεί διαφορετικά από οποιαδήποτε άλλη αλλαγή λογισμικού στο site. Κάθε αλλαγή που κάνουμε επηρεάζει συμπεριφορές».

techzoom.gr