Continuamos nuestra conversación, esta vez revisando qué se está haciendo en el mundo por tener marcos éticos y legales, que protejan a la sociedad del mal uso de la inteligencia artificial por lo menos en sus dos primeras etapas: la ANI y la AGI.
Los sistemas políticos y económicos determinan los enfoques acerca de lo que se considera inteligencia artificial segura. Si bien el Parlamento Europeo aprobó la Ley de IA el pasado 23 de marzo y, de seguro, será un modelo para futuros marcos legales alrededor del mundo, la Unión Europea está muy rezagada en el desarrollo de la inteligencia artificial al lado de los Estados Unidos y China.
Curiosamente la UE ha decidido promover la inteligencia artificial de código abierto apelando al desarrollo creativo, responsable y masivo por parte de los investigadores, lo que conlleva de manera intrínseca la contradicción que en las manos inadecuadas, por maldad o descuido, el «genio de la Súper Inteligencia Artificial pueda escapar a futuro fácilmente de la botella» y sea incontrolable.
El enfoque chino de inteligencia artificial segura procura el desarrollo de sistemas se robustezcan el bien común y la armonía social diseñada por el Estado, pero la integración de la IA con tecnologías como la «gestión de la malla» en el sistema de crédito social chino, ha suscitado preocupaciones significativa sobre la privacidad y la transparencia.
Aunque la IA puede aumentar la eficiencia de cualquier sistema, también eleva el riesgo de invasión a la privacidad debido a la extensiva recopilación y vinculación de datos personales. En Chona cada persona recibe una calificación social, pero la falta de transparencia en los logaritmos utilizados para calcular dichos puntajes dificulta que, en un momento dado, sus habitantes comprendan o impugnen las decisiones que afectan negativamente sus puntajes de buenos ciudadanos.
Finalmente está el enfoque de los Estados Unidos, que ha visto en la IA el inesperado «as en la manga» para frenar el ascenso de China como primera súper potencia mundial. Atendiendo al propio clamor de los grandes agentes de la industria en el 2015 y en 2023, se crearon el Consorcio del Instituto de Seguridad en IA y el Marco de Gestión de Riesgos de la IA de NIST, con los cuales se busca proteger la privacidad de los estadounidenses, las grietas en ciberseguridad, la evaluación de riesgos, la autenticación de contenidos generados por IA, la discriminación y el sesgo desde algoritmos.
Para lo que no hay interés en regular por parte de ninguno de estos tres jugadores, es en los avances de la inteligencia artificial en el campo militar donde la inversión norteamericana prácticamente triplica a la China tentuplica a la europea, de ahí la creciente obsesión de China por anexionarse a Taiwan y los bloqueos conjuntos de Estados Unidos y Europa a China para que ésta no acceda a tecnología de última generación en semiconductores.
Para un panorama más detallado en IA segura consulte https://futureoflife.org/landscape
Carlos Acosta… El Colombiano..agosto 2024