Sin definir estándares, “el proceso puede politizarse”, afirmó Kreps. Esto corre el riesgo de crear un sistema en el que “quien tenga el poder pueda determinar cómo funcionan los controles”.
Hasta ahora, ni la administración Biden ni la de Trump han encontrado una manera de evitarlo, dijo Kreps.
Las preocupaciones del gobierno controlarán la producción de IA
El blog de Microsoft dice que “CAISI, Microsoft y NIST colaborarán para mejorar las metodologías de evaluación adversarial”, indicando que el plan es desarrollar estos estándares rápidamente. Según Microsoft, “probar sistemas de inteligencia artificial investigando comportamientos inesperados, abuso de carril y modos de falla” es “como probar si las bolsas de aire, los cinturones de seguridad y los sistemas de frenos funcionan de manera efectiva y confiable en escenarios de conducción críticos para la seguridad”.
Pero Gregory Falco, profesor asistente de ingeniería mecánica y aeroespacial en la Universidad de Cornell y experto en el campo seguimiento de la gobernanza de la IAinsistiendo en que hay una mejor manera.
“La supervisión gubernamental de la IA no puede significar simplemente una revisión política de los resultados del modelo, ni debería ser un mecanismo para decidir si un modelo tiene un impacto positivo o negativo en el presidente o su administración”, dijo Falco.
En lugar de depender de un gobierno politizado que aprovecha las evaluaciones para controlar los sistemas de inteligencia artificial que utiliza la sociedad, Estados Unidos podría establecer “algún tipo de auditoría independiente”, dijo Falco.
Imagínese, sugiere Falco, si las empresas de IA entendieran que sus modelos pueden ser auditados en cualquier momento, ¿cuánta responsabilidad y disciplina podrían generar dichos sistemas? Al operar de manera similar al Servicio de Impuestos Internos (IRS), un estricto sistema de auditoría de IA podría crear “consecuencias reales por una implementación descuidada”, dijo Falco. Para las empresas de IA que enfrentan tales consecuencias, habrá presión para mejorar las pruebas internas de seguridad de la IA, sugirió Falco.
Este parece ser “el único camino viable”, dijo Falco, porque “el gobierno federal actualmente no tiene la experiencia técnica, la infraestructura o el conocimiento diario necesario para evaluar directamente estos sistemas por sí solo”.



