Microsoft aprobó una serie de regulaciones para la inteligencia artificial, mientras la compañía navega por las preocupaciones de los gobiernos de todo el mundo sobre los riesgos de esta tecnología en rápida evolución.
La empresa, que prometió incorporar inteligencia artificial en muchos de sus productos, propuso regulaciones que incluyen el requisito de que los sistemas utilizados en la infraestructura crítica puedan apagarse por completo o ralentizarse, de manera similar a un sistema de frenado de emergencia en un tren. La compañía también pidió leyes que aclaren cuándo se aplican obligaciones legales adicionales a un sistema de inteligencia artificial y etiquetas que aclaren cuándo una computadora produjo una imagen o un video.
“Las empresas deben dar un paso adelante”, dijo Brad Smith, presidente de Microsoft, en una entrevista sobre el impulso de las regulaciones. “El gobierno necesita moverse más rápido”. Presentó las propuestas frente a una audiencia que incluía a legisladores en un evento en el centro de Washington el jueves por la mañana.
El llamado a las regulaciones marca un auge en la IA, con el lanzamiento del chatbot ChatGPT en noviembre, se ha generado una gran ola de interés. Desde entonces, empresas como Microsoft y la empresa matriz de Google, Alphabet, se han apresurado a incorporar la tecnología en sus productos. Eso ha avivado la preocupación de que las empresas estén sacrificando la seguridad para llegar al próximo gran avance antes que sus competidores.
Los legisladores han expresado públicamente su preocupación de que tales productos de IA, que pueden generar texto e imágenes por sí mismos, creen una avalancha de desinformación, sean utilizados por delincuentes y dejen a la gente sin trabajo. Los reguladores en Washington se han comprometido a estar atentos a los estafadores que usan IA y los casos en los que los sistemas perpetúan la discriminación o toman decisiones que violan la ley.
Una nueva generación de chatbots
En respuesta a ese escrutinio, los desarrolladores de IA han pedido cada vez más que se transfiera parte de la carga de vigilar la tecnología al gobierno. Sam Altman , director ejecutivo de OpenAI, que fabrica ChatGPT y cuenta con Microsoft como inversor, dijo a un subcomité del Senado que el gobierno debe regular la tecnología.
La maniobra hace eco de los pedidos de nuevas leyes de privacidad o redes sociales por parte de compañías de Internet como Google y Meta, la matriz de Facebook. En los Estados Unidos, los legisladores se han movido lentamente después de tales llamados, con pocas reglas federales nuevas sobre privacidad o redes sociales en los últimos años.
En la entrevista, Smith dijo que la empresa de Redmond no estaba tratando de deshacerse de la responsabilidad de administrar la nueva tecnología, porque estaba ofreciendo ideas específicas y comprometiéndose a llevar a cabo algunas de ellas independientemente de si el gobierno tomaba medidas. “No hay un ápice de abdicación de responsabilidad”, dijo.
Respaldó la idea, apoyada por el Sr. Altman durante su testimonio ante el Congreso, de que una agencia gubernamental debería exigir a las empresas que obtengan licencias para implementar modelos de IA de “alta capacidad”.
“Eso significa que notifica al gobierno cuando comienza a realizar las pruebas”, dijo Smith. “Tienes que compartir los resultados con el gobierno. Incluso cuando tiene licencia para su despliegue, tiene el deber de seguir supervisándolo e informar al gobierno si surgen problemas inesperados”.
La empresa de las ventanas, que obtuvo más de $22 mil millones de su negocio de computación en la nube en el primer trimestre, también dijo que esos sistemas de alto riesgo deberían poder operar solo en “centros de datos de IA con licencia”. El Sr. Smith reconoció que la empresa no estaría “mal posicionada” para ofrecer dichos servicios, pero dijo que muchos competidores estadounidenses también podrían brindarlos.
También agregó que los gobiernos deberían designar ciertos sistemas de inteligencia artificial utilizados en infraestructura crítica como de “alto riesgo” y exigirles que tengan un “freno de seguridad”. Comparó esa característica con “los ingenieros de sistemas de frenos que los ingenieros han integrado durante mucho tiempo en otras tecnologías, como ascensores, autobuses escolares y trenes de alta velocidad”.
En algunos casos delicados, dijo, las empresas que proporcionan sistemas de inteligencia artificial deberían tener que conocer cierta información sobre sus clientes. Para proteger a los consumidores del engaño, se debe exigir que el contenido creado por IA lleve una etiqueta especial, dijo la compañía.
Smith dijo que las empresas deberían asumir la “responsabilidad” legal por los daños asociados con la IA. En algunos casos, dijo, la parte responsable podría ser el desarrollador de una aplicación como el motor de búsqueda Bing de Microsoft que usa la tecnología de IA subyacente de otra persona. Las empresas de la nube podrían ser responsables de cumplir con las normas de seguridad y otras reglas, agregó.
“No necesariamente tenemos la mejor información o la mejor respuesta, o puede que no seamos el orador más creíble”, dijo el Sr. Smith. “Pero, ya sabes, en este momento, especialmente en Washington DC, la gente está buscando ideas”.
Fuente: NYT/CanalesTI, FRB.