comentarios opiniones

Inteligencia artificial: el primer ensayo por un accidente automovilístico fatal

  • diciembre 17, 2020

En particular, los hechos que se están juzgando tuvieron lugar la noche del 27 de agosto de 2018, cuando una mujer cruzaba en bicicleta una calle de la ciudad de Tempe, Arizona, y fue atropellada por Vehículo autónomo Uber estaba en la evidencia.

Los sistemas del automóvil, cuyo conductor de respaldo estaba distraído mientras veía un programa de televisión en su teléfono móvil en ese momento, detectaron al peatón 5.6 segundos antes de la colisión, pero no detuvieron el vehículo porque no pudieron determinar si se trataba de un ciclista, un peatón o un objeto desconocido o se dirigía a un vehículo.

Esta figura controlador de respaldo Esto se debe a la necesidad de que una persona controle las reacciones del vehículo a las pruebas en todo momento y tome decisiones si por alguna razón el automóvil no funciona como debería.

En este caso particular, una serie de circunstancias provocaron que los peatones fueran atropellados (lo que también fue positivo para la metanfetamina en un informe de toxicología post-mortem) y obligaron a Uber y otras empresas a ralentizar lo que fue un rápido movimiento hacia los servicios de transporte autónomo en la vía pública.

Uber detenido temporalmente la prueba de sus coches autónomos y ha contratado nuevos conductores que han sido formados tanto para pruebas de carretera como de circuito cerrado, con la intención de proporcionar un nivel de información técnica superior a los anteriores conductores de seguridad de la empresa.

Los vehículos autónomos de Uber terminaron en la carretera casi un año después, viajando más lento y con mayores restricciones.

Un conjunto de tonterías que resultan en la muerte

En este punto, las cosas se vuelven interesantes desde el punto de vista de la responsabilidad por las acciones de las máquinas controladas por inteligencia artificial.

En marzo de 2019, los fiscales se negaron a presentar cargos penales contra Uber, como corporación, en el caso de la muerte de un peatón, y la Junta Nacional de Seguridad en el Transporte concluyó que la causa principal del accidente fue que el conductor de respaldo no monitoreó la carretera mientras miraba la televisión en su teléfono.

También se incluyen los factores que contribuyeron al accidente. procedimientos de seguridad inadecuados de Uber y vigilancia ineficaz de sus conductores, la decisión de los peatones de cruzar la calle fuera del paso de peatones y supervisión insuficiente del Departamento de Transporte de Arizona para pruebas de vehículos autónomos.

Cabe destacar que muchas empresas con vehículos autónomos están probando en Arizona porque así lo hizo menos regulaciones que otros estados en relación con este asunto.

La junta también determinó que la desactivación de Uber fue su sistema de frenado de emergencia automático aumentó los riesgos asociados con la prueba de vehículos automatizados en la vía pública. En lugar del sistema, Uber confió en un conductor humano de respaldo para intervenir.

Para completar el giro de rizo, el controlador de respaldo ha pasado anteriormente más de cuatro años en prisión por dos condenas penales – hacer declaraciones falsas mientras recibía beneficios de desempleo e intento de robo a mano armada – antes de comenzar a trabajar como conductor de Uber, según los registros judiciales.

Después de todos estos grupos de circunstancias, finalmente, ¿quién es acusado de asesinato? la negligencia fue un conductor de respaldo, quien se declaró inocente.


Cargando ... Cargando …

¿Es el conductor realmente el culpable del accidente?

Tener una opinión sobre quién tiene la culpa significa adentrarse en un terreno complejo y fangoso. Y tenga cuidado, no estoy diciendo que usted decida o haga justicia en un caso, sino que simplemente dé una opinión.

Si creemos que después de todas las averías que se han producido, toda la culpa la tiene el conductor que veía el programa Voz (en la versión americana)?

Michael Bennett, profesor de la Universidad de Arizona que se especializa en conducción autónoma, cree que poner a los conductores en el centro de todo bastante injusto cuando hay fallas regulatorias en el estado de Arizona, así como fallas reales y significativas de Uber.

Para este experto, la culpa es totalmente de ese conductor cuando la Dirección y una gran empresa (el inventor de gran parte de la tecnología de conducción autónoma) asumen responsabilidad mínima y probablemente finalmente saldrá de la prueba sin ningún problema.

Desde mi punto de vista, estoy completamente de acuerdo con lo que piensa este profesor. Aunque el conductor no hizo lo que se suponía que debía hacer, que es mirar la carretera y anticipar posibles problemas si el coche no funciona, no es todo culpa de lo que pasó al final.

En primer lugar, puede ser que aunque la conductora actuó correctamente, no logró evitar el accidente porque el peatón pasaba por un lugar donde no debía y no había más luz que el faro del vehículo.

Y aparte de lo anterior, no es justo que le arrojen una lechuza cuando Uber, por su decisión (quizás negligente) de abolir el sistema de frenado automático de sus autos, y la Administración porque no tienen regulación más completa para este tipo de operaciones son responsables.

Este es un claro ejemplo de lo que sucede cuando la innovación está muy por delante de la legislación y los análisis y pronósticos necesarios desde el punto de vista responsabilidad ética y social grandes empresas que implementan estas innovaciones.

Algo que, además, no debería sorprendernos en Uber porque en el pasado fue noticia para eso poca responsabilidad social corporativa, como ya hemos analizado en este artículo.


¿De donde eres? ¿A dónde vas, Uber?


Inteligencia artificial y principios éticos

La conductora fue liberada pendiente de juicio en febrero de 2021 y mi lógica dice que puede salir más o menos ilesa y que al menos la empresa es responsable del accidente, aunque en qué medida.

Pero esa es solo la mera opinión del escritor. Tal vez ella está haciendo trampa y el conductor se está llevando todo el ‘marrón’, lo que no solo sería muy malo para ella sino para otros ciudadanos si queremos en un futuro cercano, innovación, responsabilidad social corporativa y legislación van de la mano para reducir la probabilidad de que ocurran casos como este, desde su ocurrencia hasta las consecuencias finales.

Como menciona Sergio Marín García en el Departamento de Responsabilidad Social de CaixaBank titulado Ética e inteligencia artificial, la inteligencia artificial debe diseñarse y desarrollarse en serie Principios éticos incluyendo responsabilidad y rendición de cuentas, robustez y seguridad.

Por responsabilidad y responsabilidad No hace falta decir que el diseño y uso de sistemas inteligentes debe ir precedido de una clara división de responsabilidades por los posibles daños que puedan causar.

yo robustez y seguridad requieren que los algoritmos sean lo suficientemente seguros, confiables y robustos para operar con precisión y seguridad y para resolver errores o inconsistencias en todas las fases del ciclo de vida del dispositivo.

Ambos principios no parecen haberse aplicado correctamente en este caso.

¿Se adherirán a estos principios y estarán preparadas las leyes y las empresas cuando un automóvil autónomo ya no necesite tener un conductor de repuesto y si se conduce solo al 100%?

La prudencia nos dice que la respuesta anterior fue respondida «sí», pero aparentemente todavía existe un largo camino para asegurarlo al cien por cien.

No Comments Found

Leave a Reply