abril 19, 2023

I.A: los riesgos del progreso son preferibles a los peligros de la regulación

Spread the love

Era casi esperable: frente al desarrollo vertiginoso de herramientas de capacidades asombrosas como Chat GPT y otra familia de aplicaciones de Inteligencia Artificial (IA), un grupo de más de 1.000 académicos, expertos e intelectuales, entre los que se encuentran Steve Wozniak, cofundador de Apple, y Elon Musk, quien no necesita presentación, firmaron una carta en la que proponen una moratoria mínima de 6 meses en el desarrollo de estas aplicaciones de prestaciones sin precedentes, hasta tanto se pueda desarrollar un marco regulatorio que acote sus riesgos.
Entre otras medidas, proponen generar protocolos de seguridad para el diseño de aplicaciones avanzadas de inteligencia artificial, rigurosamente auditados y supervisados por expertos independientes y externos a los laboratorios que desarrollan estas aplicaciones. También la creación de autoridades que regulen y certifiquen lo concerniente a IA.
Como toda innovación disruptiva y de gran poder, el desarrollo sostenido de aplicaciones de Inteligencia Artificial conlleva riesgos por su potencial uso para fines inapropiados, por más que las que actualmente están disponibles explícitamente intentan prevenirlo.
Los riesgos son reales y su alcance es desconocido, como también lo es el potencial para democratizar el conocimiento y resolver esos mismos problemas que todavía nos acompañan.
Lo que sí sabemos es que jamás debiéramos someter el progreso al criterio de expertos, entes regulatorios, gobiernos o grupos de interés. Aun con los peligros que estos sistemas puedan representar, siempre es preferible informarse, aprender sobre las limitaciones y malos usos y acompañar su desarrollo con una mirada crítica, dejando que su propio uso regule su impacto.
Ninguna restricción, por mejor que sea, puede ser perfecta en su capacidad de cercenar el progreso. Marginalizar el desarrollo de aplicaciones de inteligencia artificial nos expondrá, en ese caso sí, a quienes fuera de las normas eventuales continúen con estos desarrollos con fines que no sean beneficiosos para la humanidad.
Nuestros esfuerzos deberían estar orientados a aprender, informarnos y generar una mirada crítica para que estos sistemas no sean una caja negra. Si los sistemas de inteligencia artificial nos alcanzaron y hasta superaron, el desafío es reconectar con el verdadero valor de nuestra humanidad, no suprimirlos.

El contenido original de esta nota fue publicado en Perfil.com. Para leer la nota completa ingresá acá

somos partners de AWS
© 2024 - mobilenik | All right reserved | Visit us

    Open chat
    1
    Hola, ¿cómo podemos ayudarlo?
    Hola 👋
    ¿En qué podemos ayudarte?