Ejecutómetro: 0
Dólar: 19.47 MXN
10°

Meta establece un marco para identificar y mitigar "posibles resultados catastróficos" derivados de sistemas de IA


Meta establece un marco para identificar y mitigar "posibles resultados catastróficos" derivados de sistemas de IAMeta persenta Frontier AI Framework . Foto: europa press

Ciencia y Tecnología

Autor sin foto cargada

Por Portaltic / EP

martes, 4 de febrero de 2025 · 08:15

 

MADRID, (Portaltic/EP) - Meta explicó cómo trabaja para construir herramientas y sistemas de Inteligencia Artificial (IA) avanzadas, en un marco en el que se establece de qué forma evalúa y mitiga los riesgos y cómo establece umbrales catastróficos y modela amenazas para neutralizar a tiempo los "posibles riesgos catastróficos" derivados del uso y desarrollo de esta tecnología.

En un documento, llamado Frontier AI Framework, describió cómo trabaja para construir IA avanzada y de qué forma establece umbrales catastróficos; un enfoque que espera que "evolucione y madure con el tiempo", conforme avanzan los usos de esta tecnología.

Con ello, la compañía resaltó su compromiso por "avanzar en lo último en IA, en los modelos y en los sistemas para implementarlos de manera responsable"; y reconoció que, aunque "no es posible eliminar por completo el riesgo" intrínseco que tiene la IA, sí busca que ésta sea "positiva para la sociedad".

De este modo, indicó que su marco de trabajo de IA diferencia sistemas de 'riesgo alto' y de 'riesgo crítico', siendo estos últimos los relacionados con las áreas de amenazas a la ciberseguridad, así como los de armas químicas y biológicas "de alto impacto".

Frontier AI Framework, por tanto, se ha establecido para identificar posibles resultados catastróficos y evaluar si esos resultados "son posibles gracias a los avances tecnológicos". "De ser así, identificaremos formas de paliar esos riesgos", ha apuntado.

Meta también adelantó que realiza ejercicios de modelado de amenazas para anticipar cómo diferentes actores podrían intentar hacer un uso indebido de la IA para producir los comentados resultados catastróficos, trabajando con expertos externos según sea necesario.

Asimismo dijo que define los umbrales de riesgo en función del grado en que sus modelos de IA facilitan los escenarios de amenaza. Para ello, dispone de procesos establecidos para mantener los riesgos dentro de niveles aceptables, incluida la aplicación de medidas de mitigación.

En caso de identificar que un sistema de IA es de riesgo alto, limitará su acceso internamente hasta que haya completado el despliegue de mitigaciones pertinente para "reducir el riesgo a niveles moderados". Ante un riesgo crítico, y si se considera que una IA ha alcanzado el umbral establecido y no se puede mitigar, Meta ha subrayado que detendrá su desarrollo e implementará otras protecciones, aunque no ha especificado cuáles.

La tecnológica señaló finalmente que si bien el objetivo de este marco es reducir al máximo riesgos graves, la razón principal por la que están desarrollando estas tecnologías "es porque tienen el potencial de beneficiar enormemente a la sociedad".

Conviene apuntar que el anuncio de este marco va en la línea de la Ley de Inteligencia Artificial de la Unión Europea, la legislación pionera en regular esta tecnología a nivel mundial, que entró en vigor el pasado 1 de agosto y tiene por objetivo garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE.

Esta normativa busca regular su uso bajo un marco jurídico uniforme, facilitando la comercialización y circulación de los productos y sistemas basados en IA, sin olvidar la ciberseguridad y el desarrollo tecnológico bajo un enfoque ético por parte de las empresas que la desarrollan.

Asimismo, tiene un enfoque basado en los niveles de riesgo de presenta la IA, que se recogen en cuatro categorías: los sistemas que suponen un riesgo inaceptable -que están directamente prohibidos-, los sistemas de alto riesgo, los sistemas de riesgo limitado y los sistemas de riesgo mínimo. En esta categoría se encuentran la mayoría de los sistemas de IA.

Si bien la aplicación obligatoria de esta normativa comenzará en agosto de 2026, ha sido este domingo cuando se han aplicado las prohibiciones de los sistemas de inteligencia artificial que se consideren que presentan un "riesgo inaceptable", momento en que Meta ha aprovechado para explicar cuál es su enfoque actual para el trabajo responsable de sistemas avanzados de IA.

Con información de proceso.com.mx

Tips al momento

Exigen derechohabientes a PCE trato digno; "si no pueden con el cargo, renuncien"

Derechohabientes de Pensiones Civiles del Estado, a través de redes sociales, piden a pensionados, activos y jubilados, a unirse por un bien común para exigir una atención digna de quienes encabezan y atienden en la institución, donde no se ponga en riesgo la vida de un ser humano, pues indican que tristemente vivimos en un mundo de indiferencia al dolor y las necesidades de los demás, indicando que si los directivos no pueden con el cargo, que renuncien.

Asimismo, mencionan, que se revisen los expedientes y vean los medicamentos que se surten a quienes requieren del servicio, pues uno de los derechohabientes dice que “es una barbaridad” la cantidad, pues en su caso particular al revisar su expediente le han dado tratamientos para el corazón, nivelar el azúcar y los triglicéridos, así como el colesterol, entre otros.

Entre las acciones a concretar llaman a la suspensión del servicio médico a los deudores de Pensiones Civiles del Estado, así como a un paro intermitente, escalonado, parcial o total, y huelga.

Notas recientes