Más Negocios

Ética, reto para el futuro tecnológico

Científicos y empresarios advierten del riesgo de que la robótica y la inteligencia artificial sean utilizados con malas intenciones.

Pablo Picasso declaró alguna vez: “Las computadoras son inútiles. Solo pueden darte respuestas”. La broma del artista español tal vez pudo ser verdad en el siglo XX, cuando las computadoras eran en su mayoría calculadoras mejoradas que desempeñaban funciones claramente prescritas. Pero con la expansión de la capacidad del procesamiento a principios del siglo XXI las computadoras ahora plantean algunas de las preguntas más difíciles y no queda claro quién es responsable de proporcionar las respuestas.

Los avances tecnológicos en la inteligencia artificial, la biotecnología, la nanotecnología, la robótica y la neurociencia, por nombrar algunas, plantean el reto de entender todas sus implicaciones sociales, económicas y éticas.

¿La inteligencia artificial es, como cree Elon Musk, quien dirige Tesla Motors y SpaceX, “potencialmente más peligrosa que las armas nucleares”? La idea de robots malintencionados que destruyen a sus creadores es un tema popular de la ciencia ficción, pero ahora, científicos serios, como Stephen Hawking, y destacados empresarios expresan preocupaciones al respecto.

A finales del año pasado, Musk, Peter Thiel (inversionista y cofundador de PayPal) y otros empresarios de Silicon Valley comprometieron mil millones de dólares para financiar una compañía sin fines de lucro, de nombre OpenAI, con el objetivo de que la inteligencia artificial se mantenga como “una extensión de las voluntades humanas individuales”.

Musk también donó 10 mdd para el Future of LIfe Institute (Instituto del futuro de la vida), organización con sede en Cambridge, Massachusetts, que estudia las dimensiones sociales y éticas de la inteligencia artificial, y en cuya misión dice: “La tecnología le da vida al potencial para florecer como nunca antes...o para la autodestrucción. Hagamos una diferencia”.

Una segunda pregunta difícil es, ¿cómo construir una “elasticidad ética” en los coches de autoconducción? Para bien o para mal, los conductores humanos son infinitamente flexibles al evaluar la ética en diferentes situaciones. ¿Pero cómo programar a los coches autónomos para reaccionar ante una crisis real?

Dieter Zetsche, director general de la alemana Daimler preguntó cómo se deben comportar los vehículos autónomos “si un accidente realmente es inevitable y donde la única opción es una colisión… ¿con un coche pequeño o un camión grande, llevarlo a una zanja o contra una pared, o darle un rozón una madre con un carrito de bebé o a una abuela de 80 años?

Los avances en los cuidados de salud también crean nuevos dilemas. En el caso de los medicamentos, ¿se deben prohibir los que mejoran el conocimiento a los usuarios ocasionales? En su libro Bad Moves, los neurólogos Barbara Sahakian y Jamie Nicole LaBuzetta destacan los desafíos éticos de usar fármacos para la inteligencia.

Preguntan ¿por qué tomamos una posición tan dura con los atletas que usan esteroides para hacer trampa pero ignoramos a los estudiantes que usan drogas para mejorar su desempeño académico?

Estudiantes de la Universidad de Duke en Carolina del Norte presionaron a las autoridades para modificar la política de honestidad académica de la institución para considerar “el uso sin autorización de medicamentos con receta” como hacer trampa. Pero otras universidades, o empresas, parecen considerarlo como un dilema.

Por encima de todas estas dudas se encuentra una mucho más grande: ¿quién es responsable de asegurar que no se abuse de los últimos avances tecnológicos?

Los gobiernos nacionales y los parlamentos, ocupados con preocupaciones más urgentes como la austeridad fiscal y los flujos de refugiados, pocas veces tienen el ancho político para considerar esos retos abstractos.

Como en tantos otros ámbitos, parece inevitable que las regulaciones queden detrás de la realidad. Además, ¿qué puede frenar a naciones malintencionadas de ignorar cualquier norma y utilizar la edición de genes o máquinas que aprenden solas o las tecnologías cibernéticas para un uso destructivo?

Eso abre la puerta en gran medida a la autorregulación de las compañías de tecnología. Empresas como Google forman juntas de ética para ayudar a monitorear sus propias actividades en áreas como la inteligencia artificial. Pero como vimos en el periodo previo a la crisis financiera de 2008, el sector privado a menudo puede esconderse detrás de una interpretación estricta de la ley.

Empujar la ley hasta el límite, claramente corroyó los estándares éticos y llevó a una serie de abusos de todo el sector financiero. Para el verano pasado, las instituciones financieras habían pagado más de 235 mil millones de dólares en multas por violar las regulaciones, de acuerdo con un conteo de Reuters.

Como un ex banquero dijo: “No todo lo que es legal es ético”.

Este es un tema que las empresas de tecnología tendrán que enfrentar si su propia industria no quiere sufrir un impacto regulatorio en el futuro.



Google news logo
Síguenos en
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.