La convivencia cada vez mayor con robots y sistemas de inteligencia artificial plantea cuestiones que, mas allá del propio desarrollo tecnológico, entran en el terreno de la filosofía, la ética y el derecho, y parece que es aquí y no en una posible amenaza para la raza humana donde están los "conflictos robóticos" del futuro.

La idea de que la inteligencia artificial pueda adelantar a la humana no tiene aplicación en términos absolutos. Solo tiene sentido en determinados contextos, según expertos consultados por Efe, que añaden que ya hay robots y software autónomos que toman decisiones más allá de sus algoritmos preprogramados y pueden aprender y adaptarse a situaciones imprevisibles no anticipadas.

También pueden adelantarnos en velocidad de cálculo y complejidad de datos, pero "la inteligencia humana no se dedica solo a computar, sino que está puesta en activo con el mundo y con otras personas, es social", apunta Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia de la Universidad Carlos III de Madrid (UC3M).

"A las máquinas les falta versatilidad y sentido común, y quedan lejos de lo que sería una inteligencia artificial general, dotada de singularidad", añade Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC).

"Una máquina no llegará a tener conciencia de lo que está haciendo; podrá jugar al ajedrez, pero no sabrá que está jugando ni tendrá el sentimiento de que está compitiendo con el hombre para derrotarle", amplía López de Mántaras. "Hay motivaciones e intenciones que dudo mucho que vayan a tener", opina.

La ciencia ficción influye en nuestra imagen de los robots y personas como Stephen Hawking "plantean un escenario apocalíptico" respecto a la inteligencia artificial, pero para Mántaras se está hablando de "periodos futuros irracionales", sin entender el "estado del arte" en este campo e infravalorando la complejidad del cerebro.

"La amenaza real está en el campo de la ética", dice este experto, quien subraya que "la gran cuestión, más que el grado de inteligencia, es el grado de autonomía que se le conceda a una máquina".

Esta es la clave para replantear la nueva legislación y las responsabilidades. "Aquí hay que hablar de niveles que nos llevan a problemas morales y jurídicos muy importantes", dice Broncano.

Teresa Rodríguez de las Heras, profesora de Derecho Mercantil en la UC3M, indica que "la diversidad de enfoques e intereses impide un tratamiento global de los avances de la robótica". "Esto conlleva un retraso en la intervención normativa, necesario para evitar una respuesta inadecuada que obstaculice el desarrollo tecnológico o distorsione la competencia en el mercado", matiza.