Spread the love
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

“El Experto advierte que hay que humanizar la “inteligencia”

 

El profesor de Artes y Humanidades de la Universitat

Oberta de Catalunya (UOC) Miquel Seguró (Argel, 1979), ha advertido en declaraciones

a Efe que es necesario humanizar la inteligencia artificial (IA) y establecer unasResultado de imagen de inteligencia artificial

reglas éticas para que su utilización sea beneficiosa para la humanidad.

“Un avance tecnológico por sí solo no genera bienestar, para eso hay que elegir

que finalidad se le da y por eso es importante humanizar la inteligencia artificial”, ha dicho Seguró.

Ante el crecimiento del sector, este experto cree que hay que establecer unas reglas

éticas para controlar su uso y saber “quién decide qué beneficios tiene que proporcionar la IA

y quién recibe estos beneficios”.

Seguró, autor del libro sobre filosofía “La vida también se piensa”, plantea cuatro retos éticos sobre

la IA: saber a qué intereses responde, entender que detrás de ella existe una responsabilidad humana,

concretar su uso político y abrir el campo de la IA del cálculo y la eficacia a otros tipos de inteligencia.

Según el profesor, “la racionalidad no es sólo cálculo, eficacia y eficiencia; también tiene otras caras

como las emociones y es importante preguntarse qué uso se quiere hacer de la IA e introducir una

  1. i

    idea de razón más compleja”.

  2. “La idea de eficiencia sola no puede resolver todo el puzzle de las relaciones sociales”

  3. , advierte Seguró, que asegura que existen espacios como las relaciones humanas o laborales

  4. donde “entran en juego inteligencias más empáticas y más emocionales que introducen el

  5. error como factor de aprendizaje”.

  6. “En el entorno laboral actual donde se exige eficiencia máxima, se beneficia la lógica de la

  7. productividad, pero en ese entorno existen problemáticas que no se pueden solucionar con la

  8. creación de secuencias lógicas”, avisa el profesor.

  9. A pesar de todo, Seguró considera que la virtud está en el término medio:

  10. “ni se puede dar por hecho que la IA deshumaniza y es un fracaso, ni pensar que lo solucionará

  11. todo, lo importante es abrir el tema e introducir complejidad en el debate”.

  12. “Existen visiones que ven positivo delegar en todo a la IA, pero no se puede confiar en un

  13. algoritmo que tome decisiones por las personas porque la responsabilidad siempre será humana,

  14. no de un robot”, expone Aseguró.Resultado de imagen de inteligencia artificial

  15. El ejemplo del algoritmo Compás en Estados Unidos, creado para ayudar a jueces a decidir

  16. sobre la libertad condicional, ilustra este peligro, cuando se comprobó que tenía un sesgo

  17. racista al basar su cálculo en datos de departamentos policiales que, históricamente, habían

  18. condenado a más personas negras.

  19. Por casos como este Aseguró incide en la necesidad de “entender que la IA no es una

  20. herramienta neutral, creerlo es hacerse trampas al solitario porque hay que evitar que la

  21. IA dote de objetividad a prejuicios, hay que comprender que el elemento humano siempre existe”.

  22. “Este es el futuro y se le está dando una importancia a la IA que obliga a ir con pies de

  23. plomo y conocer qué pautas se le otorgan y qué conclusiones se extraen de estas

herramientas”, advierte

Seguro.Por eso, uno de los retos éticos para el profesor es “conocer

que usos políticos se van

a hacer de esta inteligencia y quién va a vigilar que se use de manera equitativa”.

“Todo en la vida tiene una derivada política y es una ilusión pensar que el mismo

proceso tecnológico aclarará las dudas, la política la hacen los seres humanos y detrás

siempre tendrá que haber alguien que decida”, defiende Seguró.

La sociedad se ha sentido tan atraída hacia la idea de la IA por “la ilusión de control en

nuestras vidas, pero no se plantea que eso es solo una cara de la experiencia, porque

hay abrazos, sonrisas o silencios que no hay manera de programar o de decidir”, señala Seguró.

El profesor cree que “hace muchos años que existe la ilusión de crear un autómata como

el replicante de Blade Runner, con la duda abierta de si es bueno o malo”, ante lo cual propone

introducir complejidad en la idea cuantitativa que maneja la IA, porque “la razón no es solo cálculo”. EFE

https://ads.stickyadstv.com/vast/vpaid-adapter/8805713