Ακολουθήστε το reporter.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο reporter.gr
Οταν αποδείχθηκε πως η μηχανή αναζήτησης για επαγγελματίες LinkedIn «προτιμούσε» τα ανδρικά ονόματα από τα γυναικεία, οι τεχνικοί της απέσυραν τον επίμαχο αλγόριθμο.
Κάτι αντίστοιχο συνέβη όταν η Tay, η αθώα αν και επιπόλαια Αμερικανίδα έφηβη της Microsoft που συνομιλούσε με πραγματικούς χρήστες του Twitter, κατέληξε όχι μόνο να αναπαράγει ρατσιστικά και σεξιστικά σχόλια, αλλά και να αυτοσχεδιάζει στο ίδιο πνεύμα μέσα σε λιγότερες από 24 ώρες.
Η εταιρεία, η οποία διαφήμιζε την Tay ως ένα ρομπότ που γίνεται εξυπνότερο με κάθε συζήτηση, αρχικά διέγραψε τα προσβλητικά tweets και τελικά έκλεισε τον λογαριασμό της.
Περισσότερα στο penna.gr