Έρευνα για το Full Self-Driving της Tesla
Η Εθνική Υπηρεσία Οδικής Ασφάλειας των ΗΠΑ (NHTSA) ξεκίνησε μια έρευνα σχετικά με την τεχνολογία Full Self-Driving της Tesla, μετά από αναφορές ότι το λογισμικό οδήγησε οχήματα να παραβιάσουν κόκκινα φανάρια ή να μπουν σε λάθος λωρίδες. Η έρευνα εντόπισε πάνω από 50 τέτοιες παραβάσεις, τέσσερις από τις οποίες οδήγησαν σε τραυματισμούς, και αποτελεί μία από τις πρώτες που εστιάζουν αποκλειστικά στο Full Self-Driving (FSD) της Tesla. Η NHTSA είχε ξεκινήσει παλαιότερα έρευνα για το FSD τον Οκτώβριο του 2024, μετά από αναφορές για ατυχήματα σε συνθήκες χαμηλής ορατότητας.
Προηγούμενες και τρέχουσες έρευνες
Τον Απρίλιο του 2024, η ομοσπονδιακή υπηρεσία ασφάλειας ολοκλήρωσε την έρευνα για το Autopilot της Tesla, το οποίο είναι λιγότερο προηγμένο, αφού εντόπισε 13 θανατηφόρα ατυχήματα που σχετίζονταν με κακή χρήση του συστήματος. Μια ξεχωριστή έρευνα για την αποτελεσματικότητα της διόρθωσης που εφάρμοσε η Tesla στο Autopilot παραμένει ανοιχτή.
Νέα έκδοση λογισμικού και συγκυρία
Η νέα έρευνα ξεκίνησε την ίδια εβδομάδα που η Tesla κυκλοφόρησε την τελευταία έκδοση του λογισμικού, την οποία ο CEO Elon Musk διαφήμιζε έντονα εδώ και μήνες. Αυτή η έκδοση υποτίθεται ότι ενσωματώνει δεδομένα εκπαίδευσης που συγκεντρώθηκαν κατά τη διάρκεια του περιορισμένου πιλοτικού προγράμματος robotaxi της Tesla στο Austin, Texas.
Αναφορές για παραβιάσεις σε φανάρια
Το Γραφείο Ερευνών Ελαττωμάτων (ODI) της υπηρεσίας ανακοίνωσε ότι έχει λάβει τουλάχιστον 18 καταγγελίες και μία αναφορά από τα μέσα ενημέρωσης, σύμφωνα με τις οποίες το FSD της Tesla δεν σταμάτησε ή δεν παρέμεινε σταματημένο σε κόκκινα φανάρια. Επιπλέον, το ODI εντόπισε έξι αναφορές από την Tesla στο πλαίσιο της Γενικής Εντολής Αναφοράς Ατυχημάτων (SGO), που απαιτεί από τις εταιρείες να παρέχουν πληροφορίες για ατυχήματα με αυτόνομα ή ημιαυτόνομα οχήματα.
Επαναλαμβανόμενα περιστατικά σε διασταυρώσεις
Το ODI συνεργάστηκε με την Αρχή Μεταφορών και την Κρατική Αστυνομία του Maryland για να διαπιστώσει αν κάποια από τα προβλήματα με τα φανάρια επαναλαμβάνονται, καθώς “πολλαπλά περιστατικά σημειώθηκαν στην ίδια διασταύρωση στο Joppa, Maryland.” Σύμφωνα με τη NHTSA, η Tesla έχει ήδη “λάβει μέτρα για να αντιμετωπίσει το ζήτημα σε αυτή τη διασταύρωση.”
Παραβιάσεις λωρίδων και σήμανσης
Το ODI ανέφερε επίσης ότι εντόπισε 18 καταγγελίες, δύο δημοσιεύματα και δύο αναφορές SGO από την Tesla για περιστατικά όπου το FSD:
- μπήκε σε αντίθετες λωρίδες κατά τη διάρκεια ή μετά από στροφή
- διέσχισε διπλή κίτρινη γραμμή ενώ κινούνταν ευθεία
- προσπάθησε να στρίψει σε δρόμο με απαγορευτική σήμανση αντίθετης κατεύθυνσης
Πρόσθετα περιστατικά με λανθασμένες κινήσεις
Το ODI εντόπισε έξι καταγγελίες, ένα δημοσίευμα και τέσσερις αναφορές SGO όπου Tesla με ενεργοποιημένο FSD διέσχισε διασταύρωση ευθεία από λωρίδα στροφής ή πραγματοποίησε στροφή από λωρίδα ευθείας. Σε ορισμένες περιπτώσεις, το FSD άλλαξε λωρίδα προς αντίθετη κατεύθυνση χωρίς να δώσει χρόνο στον οδηγό να αντιδράσει.
Διαδικασία και χρονοδιάγραμμα της έρευνας
Το ODI ξεκίνησε αυτό που ονομάζεται “Προκαταρκτική Αξιολόγηση”, ένα από τα πρώτα βήματα που μπορεί να οδηγήσουν σε ανάκληση. Η υπηρεσία συνήθως προσπαθεί να ολοκληρώσει τέτοιες έρευνες εντός οκτώ μηνών, αν και δεν είναι σαφές αν το ενδεχόμενο κλείσιμο της ομοσπονδιακής κυβέρνησης θα επηρεάσει το χρονοδιάγραμμα.
Μειώσεις προσωπικού στην ασφάλεια αυτοματισμών
Το Υπουργείο Αποδοτικότητας της Κυβέρνησης υπό τον Musk φέρεται να προχώρησε νωρίτερα φέτος σε σημαντικές περικοπές στο προσωπικό της NHTSA που ασχολείται με την ασφάλεια των αυτόνομων οχημάτων.