Orden para la Inteligencia Artificial

La Unión Europea, quiere regular la inteligencia artificial para garantizar mejores condiciones de desarrollo y uso de esta tecnología.

Esta regulación tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Es una iniciativa hacia la adopción de una inteligencia artificial fiable y centrada en el ser humano.

Punto clave de la regulación de la Inteligencia Artificial. 

Esta regulación se propone, ser el primer marco regulador en el mundo sobre IA, basándose en un sistema de categorización de riesgos en donde se solicitará que los sistemas de inteligencia artificial sean analizados y supervisados por personas, en lugar de la automatización, para evitar resultados perjudiciales. Esta regulación no solo estará presente en el momento previo a la comercialización, sino que armonizará controles posteriores a su uso. 

Todo lo anterior se hace con el objetivo que los sistemas de IA (i) cumplan con la legislación comunitaria vigente; (ii) permitan de manera segura la inversión e innovación en temas de IA; (iii) se mejore la gobernanza y la aplicación efectiva de la legislación de la UE sobre derechos fundamentales y requisitos de seguridad aplicables a los sistemas de IA y (iv) facilitar el desarrollo de un mercado único para

aplicaciones de IA legales, seguras y fiables y evitar la fragmentación del mercado.

La Unión Europea, quiere regular la inteligencia artificial para garantizar mejores condiciones de desarrollo y uso de esta tecnología.

Tipos y categorías de los riesgos

Esta regulación plantea 3 niveles de riesgo que serán el resultado de una evaluación requerida a los sistemas, antes de su uso y comercialización. https://www.europarl.europa.eu/news/es/headlines/society/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial?xtor=AD-78-[Social_share_buttons]-[linkedin]-[es]-[news]-[society]-[ai-risks]& 

  • Riesgo inaceptable 

Son aquellos riesgos que se consideran inaceptables, pues son realmente peligrosos para los humanos, como ejemplo está la manipulación cognitiva del comportamiento de personas y clasificación de personas.

  • Alto riesgo

En esta categoría se encuentran los sistemas de IA que afecten los derechos fundamentales. Se dividen en dos categorías, los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, y los sistemas de AI que son de obligatorio registro, cómo lo son los que se refieren a la educación, aplicación de la ley o control de fronteras. 

  • Riesgo limitado 

En esta clasificación se encentran aquellos sistemas de IA que generan o manipulan contenidos de imagen, audio o video. Estos sistemas deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario deberá tener el conocimiento de que está interactuando con AI. 

Con esta regulación comienza una nueva era normativa, en donde se creará las condiciones para el desarrollo y el uso de sistemas de IA fiables en el mercado. Para más contenido por favor diríjase al siguiente link https://mslegal.com.co/publicaciones/

Evite que su empresa sea sancionada por la DIAN al incumplir con el deber de suministrar de forma exacta la información de Beneficiario Final
Prev ¡No olvide realizar el registro en el RUB del Beneficiario Final de su empresa antes del 31 de julio de 2023!
Sig Riesgo Cibernético y la Importancia del Hacking Ético en las Compañías
En la era digital actual, el riesgo cibernético se ha convertido en una preocupación cada vez mayor para las empresas de todos los tamaños. Por ello, resulta importante tener presente los peligros asociados con la seguridad en línea y la importancia de realizar hacking ético como una medida preventiva esencial.

Comments are closed.