‘El padrino de la IA’ comparte 6 formas en que la tecnología podría dañar a los humanos
‘El padrino de la IA’ comparte 6 formas en que la tecnología podría dañar a los humanos
- Los avances en torno a la tecnología de inteligencia artificial están empujando al mundo a “un período de gran incertidumbre”, según el pionero de la IA Geoffrey Hinton. A medida que la tecnología se vuelve más inteligente, el “padrino de la IA” destaca seis daños que puede representar para los humanos.
Mientras hablaba en la conferencia tecnológica Collision de este año en Toronto, Hinton explicó que parte del peligro en torno al uso de IA se deriva de la posibilidad de que pueda desarrollar un deseo de controlar a otros.
“Tenemos que tomarnos en serio la posibilidad de que si llegan a ser más inteligentes que nosotros, lo que parece bastante probable, y tienen objetivos propios, lo que parece bastante probable, es posible que desarrollen el objetivo de tomar el control”, dijo Hinton. “Si hacen eso, estamos en problemas”.
El psicólogo cognitivo e informático renunció a Google a principios de este año para hablar más abiertamente sobre los peligros potenciales de la IA. Hinton ha estado expresando sus preocupaciones durante meses, ya que la tecnología de inteligencia artificial se ha vuelto más accesible para el público a través de herramientas como ChatGPT.
El uso del chatbot de IA se ha disparado desde su lanzamiento en noviembre de 2022. Desarrollada por OpenAI, una empresa de investigación de inteligencia artificial, la herramienta es capaz de imitar una conversación similar a la humana en respuesta a las indicaciones enviadas por los usuarios. Como modelo de lenguaje grande, ChatGPT digiere cantidades sustanciales de datos en forma de texto y proporciona respuestas basadas en la información que ha ingerido.
Pero además de plantear cuestiones éticas relacionadas con el plagio y la divulgación de información personal, ChatGPT también ha producido resultados ofensivos y tendenciosos.
Hinton ocupó el centro del escenario en la conferencia y habló con cientos de asistentes, algunos de los cuales se sentaron en el suelo después de que los asientos se llenaran rápidamente. Más de 40 000 personas de todo el mundo acudieron a Toronto para la conferencia tecnológica Collision de este año, y casi todas las charlas se refirieron a las amplias implicaciones de la IA.
En su conversación con Nick Thompson, CEO de The Atlantic, Hinton dijo que los modelos de lenguaje extenso “todavía no pueden igualar” el razonamiento humano, aunque se están acercando. Cuando Thompson preguntó si hay algo que los humanos puedan hacer que un gran modelo de lenguaje no pueda replicar en el futuro, Hinton respondió con un “No”.
“Solo somos una máquina… somos solo una gran red neuronal”, dijo el científico británico-canadiense. “No hay ninguna razón por la que una red neuronal artificial no pueda hacer todo lo que nosotros podemos hacer”.
Otro “padrino de la IA”, el científico informático Yann LeCun, compartió su punto de vista sobre la inteligencia artificial en la conferencia Viva Technology en París a principios de este mes, y la describió como “intrínsecamente buena”.
Hinton, LeCun y Yoshua Bengio ganaron el A.M. Premio Turing, conocido como el Premio Nobel de computación, en 2018.
“El efecto de la IA es hacer que las personas sean más inteligentes”, dijo LeCun el 14 de junio. “Puedes pensar en la IA como un amplificador de la inteligencia humana y cuando las personas son más inteligentes, suceden mejores cosas”.
Sin embargo, Hinton se muestra escéptico de que la IA diseñada con buenas intenciones prevalezca sobre la tecnología desarrollada por malos actores.
“No estoy convencido de que la IA buena que está tratando de evitar que la IA mala obtenga el control gane”, dijo.
A continuación se presentan seis peligros clave que la IA puede representar para los humanos, según Hinton:
1. SESGO Y DISCRIMINACIÓN
Al entrenar con conjuntos de datos sesgados, la tecnología de IA y los modelos de lenguaje extenso como ChatGPT son capaces de producir respuestas igualmente sesgadas, dijo Hinton.
Por ejemplo, una publicación de un usuario de Twitter en diciembre de 2022 muestra que el chatbot escribió un código que decía que solo los hombres blancos o asiáticos serían buenos científicos, una respuesta que se habría derivado de los datos con los que se entrenó. La respuesta de ChatGPT al aviso se ha actualizado desde entonces y OpenAI ha dicho que está trabajando para reducir los sesgos en el sistema de la herramienta.
A pesar de estos desafíos, Hinton dijo que es relativamente fácil limitar el potencial de sesgo y discriminación congelando el comportamiento exhibido por esta tecnología, analizándolo y ajustando los parámetros para corregirlo.
2. ROBOTS DE BATALLA
La idea de que las fuerzas armadas de todo el mundo produzcan armas autónomas letales, como robots de combate, es realista, dijo Hinton.
“Los departamentos de defensa los van a construir y no veo cómo puedes evitar que lo hagan”, dijo.
Puede ser útil desarrollar un tratado similar a las Convenciones de Ginebra para establecer estándares legales internacionales sobre la prohibición del uso de este tipo de tecnología, dijo Hinton. Pero tal acuerdo debe desarrollarse más temprano que tarde, dijo.
El mes pasado, una conferencia de países detrás de una Convención sobre Ciertas Armas Convencionales se reunió para discutir sistemas letales de armas autónomas. Sin embargo, después de 10 años de deliberación, aún no existen leyes y reglamentos internacionales sobre el uso de estos sistemas de armas.
A pesar de esto, es probable que dicha tecnología continúe desarrollándose. En cuanto a la guerra en curso en Ucrania, el ministro de transformación digital del país, Mykhailo Fedorov, dijo que los drones asesinos totalmente autónomos eran “un próximo paso lógico e inevitable” en el desarrollo de armas, según The Associated Press.
3. DESEMPLEO
El desarrollo de grandes modelos de lenguaje ayudará a aumentar la productividad entre los empleados y, en algunos casos, puede reemplazar los trabajos de las personas que producen texto, dijo Hinton.
Otros expertos también han compartido sus preocupaciones sobre el potencial de la IA para reemplazar el trabajo humano en el mercado laboral. Pero es más probable que los empleadores usen IA para reemplazar tareas individuales en lugar de trabajos completos, dijo Anil Verma, profesor emérito de relaciones industriales y gestión de recursos humanos en la Escuela de Administración Rotman de la Universidad de Toronto.
Además, la adopción de esta tecnología ocurrirá “gradualmente”, dijo Verma, quien se especializa en el impacto de la IA y las tecnologías digitales en las habilidades y los trabajos.
“Con el tiempo, se perderán algunos puestos de trabajo, como ha sucedido con cualquier otra ola de tecnología”, dijo Verma a CTVNews.ca en una entrevista telefónica el 24 de mayo. “Pero sucedió a un ritmo que pudimos ajustar y adaptar. .”
Si bien algunos pueden tener la esperanza de que la IA ayude a generar empleo en nuevos campos, Hinton dijo que no está seguro de si la tecnología creará más empleos de los que eliminará.
Su recomendación para los jóvenes es seguir carreras en áreas como la plomería.
“Los trabajos que van a sobrevivir a la IA durante mucho tiempo son trabajos en los que tienes que ser muy adaptable y físicamente hábil”, dijo. “[La destreza manual] todavía es difícil [de replicar]”.
4. CÁMARAS DE ECO
Un problema que ha existido antes del desarrollo de grandes modelos de lenguaje y es probable que continúe es el establecimiento de cámaras de eco en línea, dijo Hinton. Son entornos donde los usuarios entran en contacto con creencias o ideas similares a las suyas. Como resultado, estas perspectivas se refuerzan mientras que otras opiniones no son consideradas.
Puede haber programas con algoritmos que usen IA que hayan sido entrenados en la emoción humana para exponer a los usuarios a cierto tipo de contenido, dijo Hinton. Mencionó el ejemplo de las grandes empresas que alimentan a los usuarios con contenido que los “indigna” para tratar de alentarlos a hacer clic.
Es una pregunta abierta si la IA podría usarse para resolver este problema o empeorarlo, dijo Hinton.
5. RIESGO EXISTENCIAL
Finalmente, Hinton también expresó su preocupación por la amenaza que la IA puede representar para la existencia de la humanidad. Si esta tecnología se vuelve mucho más inteligente que los humanos y es capaz de manipularlos, podría hacerse cargo, dijo Hinton. Los seres humanos tienen un fuerte impulso incorporado de obtener el control, y este es un rasgo que la IA también podrá desarrollar, dijo Hinton.
“Cuanto más control tengas, más fácil será lograr las cosas”, dijo. “Creo que la IA también podrá derivar eso. Es bueno tener el control para poder lograr otras metas”.
Es posible que los humanos no puedan dominar este deseo de control o regular la IA que puede tener malas intenciones, dijo Hinton. Esto podría contribuir a la extinción o desaparición de la humanidad. Si bien algunos pueden ver esto como una broma o un ejemplo de alarmismo, Hinton no está de acuerdo.
“No es solo ciencia ficción”, dijo. “Es un riesgo real en el que debemos pensar y debemos descubrir de antemano cómo enfrentarlo”.
6. NOTICIAS FALSAS
AI también tiene la capacidad de difundir noticias falsas, dijo Hinton. Como resultado, es importante marcar la información que es falsa como tal para evitar la desinformación, dijo.
Hinton señaló a los gobiernos que han tipificado como delito el uso o la retención de dinero falsificado a sabiendas, y dijo que se debería hacer algo similar con el contenido generado por IA que es deliberadamente engañoso. Sin embargo, dijo que no está seguro de si este tipo de enfoque es posible.
¿SE PUEDE HACER ALGO PARA AYUDAR?
Hinton dijo que no tiene idea de cómo hacer que la IA sea más probable que sea una fuerza para el bien que para el mal. Pero antes de que esta tecnología se vuelva increíblemente inteligente, instó a los desarrolladores a trabajar para comprender cómo la IA podría fallar o tratar de dominar a los humanos.
Las empresas que desarrollan tecnología de IA también deberían poner más recursos para evitar que la IA se haga cargo en lugar de simplemente mejorar la tecnología, dijo.
“Deberíamos preocuparnos seriamente por mitigar todos los efectos secundarios negativos de [IA]”, dijo.
Comments (0)