Logo-grupo IDT-colegio-IFD-ITS

@idtparaguay

Logo

Expertos pidieron hacer una “pausa” en los avances de la AI

Inteligencia Artificial

Elon Musk y miles de expertos han pedido una «pausa» en el avance de la Inteligencia Artificial durante seis meses. La preocupación es que la IA podría superar rápidamente la capacidad humana para controlarla y, en última instancia, tener consecuencias impredecibles y potencialmente peligrosas para la humanidad. Esta pausa permitiría a los expertos evaluar y discutir los posibles riesgos de la IA y establecer pautas para su uso seguro y responsable en el futuro.

El mundo está creciendo y cambiando a un ritmo acelerado y la tecnología ocupa un lugar central en esta transformación. Si bien se celebran los logros tecnológicos, también se genera una gran preocupación. Recientemente, varias personalidades destacadas del sector tecnológico se unieron en una causa común y firmaron una carta con un pedido contundente: frenar el avance de la Inteligencia Artificial. Entre los nombres destacados que apoyaron esta medida se encuentra Elon Musk.

Lista de 1.100 firmantes

  • Según CNBC, durante la Cumbre del Gobierno Mundial en Dubai, Emiratos Árabes Unidos, realizada en febrero, Elon Musk afirmó que «uno de los mayores riesgos para el futuro de la civilización es la IA (Inteligencia Artificial)». Musk destacó que la IA tiene una gran capacidad y promesa, pero también presenta un gran peligro.
  • Recientemente, importantes referentes de la tecnología se unieron en un pedido difundido por el sitio Future of Life, titulado «Carta Abierta FLI: Pausar los experimentos gigantes de la IA». En la carta, se solicitó que los laboratorios detengan inmediatamente, y durante al menos seis meses, el entrenamiento de los sistemas de IA más potentes que GPT-4.
  • Lo que resultó llamativo fue la cantidad de nombres importantes que se encontraron en la lista de firmantes, que superó los 1100. Además de Musk, también figuraron Yoshua Bengio, Stuart Russell, el cofundador de Apple Steve Wozniak, Yuval Noah Hariri, Andrew Yang, Connor Leahy y Emad Mostaque.

Detener inmediatamente por 6 meses el avance:

  • La preocupación por el desarrollo de sistemas de IA con inteligencia humana-competitiva es la clave del pedido de pausa en su entrenamiento. Según los expertos, estos sistemas pueden plantear riesgos profundos para la sociedad y la humanidad, ya que se considera que no están siendo planificados ni gestionados adecuadamente.
  • En la carta publicada en Futurelife.org, se hace un llamado a todos los laboratorios de IA para que detengan inmediatamente, durante al menos seis meses, el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta medida se basa en la investigación realizada y en los riesgos que pueden provocar estos sistemas en la sociedad y la humanidad.
  • Como se establece en los Principios de IA de Asilomar, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe ser planificada y gestionada con el cuidado y los recursos correspondientes. Sin embargo, según los expertos, este nivel de planificación y gestión no está ocurriendo, y en los últimos meses, los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.

Preocupación y solicitud:

Los expertos en tecnología expresaron su preocupación por el avance de los sistemas de IA que compiten con los humanos en tareas generales y plantearon preguntas clave sobre su impacto en la sociedad y la humanidad. Además, afirmaron que las decisiones sobre el desarrollo de la IA no deberían ser tomadas solo por líderes tecnológicos no elegidos y que la confianza en los efectos positivos y la capacidad de manejo de los riesgos debe ser bien justificada antes de desarrollar sistemas potentes de IA. También citaron la reciente declaración de OpenAI sobre la importancia de una revisión independiente y la necesidad de limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos.

En otra parte del texto, hicieron una petición específica: «Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria».

Protocolos de seguridad compartidos

“Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes, con capacidades emergentes”, argumentaron.

“La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”, añadieron.

Analizar los riesgos y canalizarlos correctamente

Los autores del texto también destacaron la importancia de involucrar a la sociedad en el debate sobre el futuro de la IA y su impacto en la vida cotidiana. “La sociedad en su conjunto, y no solo los expertos, debe tener un papel significativo en la toma de decisiones sobre el futuro de la IA. Los ciudadanos deben participar en el debate público y ser informados sobre los desarrollos y riesgos de la IA. La IA es una tecnología poderosa que puede cambiar radicalmente la sociedad, y como tal, es importante que las decisiones sobre su desarrollo y uso estén informadas y sean responsables”, enfatizaron.

“Este llamado no es solo para los laboratorios de IA y los desarrolladores, sino también para todos los ciudadanos preocupados por el futuro de la humanidad. Los desafíos que enfrentamos son reales, y debemos actuar ahora para asegurarnos de que la IA se desarrolle de manera segura y responsable. De lo contrario, nos enfrentamos a un futuro incierto y peligroso”, concluyeron.

Conclusiones de los expertos sobre el tema:

Para concluir, expresaron: «La humanidad puede tener un futuro próspero con la IA. Después de haber tenido éxito en la creación de sistemas potentes de IA, ahora podemos disfrutar de un ‘verano de IA‘ en el que cosechamos las recompensas, diseñamos estos sistemas para el beneficio claro de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados».