La sesión dejó claro que estamos ante un cambio de era, cuyo objetivo es no repetir el laissez faire de los comienzos de internet y la ausencia de límites a las grandes plataformas digitales y las redes sociales. (View Highlight)
Pasamos del “no me regules”, al “por favor, regúlame” de los gigantes tecnológicos, en este caso entonado por Altman (View Highlight)
deseo de posicionarse a la cabeza como potencia reguladora. “Europa va por delante de nosotros. Necesitamos tomar el liderazgo”, afirmó el senador estadounidense Richard Blumenthal (View Highlight)
el debate sobre la creación de una agencia regulatoria de la IA. Se planteó tanto la idoneidad de hacerlo a nivel nacional para EEUU –una especie de Agencia del Medicamento al nivel de la FDA– como a nivel global (View Highlight)
institución global, el mayor problema es quién, cómo y bajo qué sistema de gobernanza se impulsa, una pregunta a la que nadie supo cómo responder. Marcus propuso crear una institución como el CERN “global, internacional y neutral”, pero centrada en la seguridad de la IA. (View Highlight)
licencias previas que prevengan el desarrollo de tecnologías de IA de alto riesgo, de igual modo que no se construye un reactor nuclear sin obtener una licencia. Marcus puntualizó que dichas licencias deberían aplicarse tanto antes del despliegue de la tecnología como a posteriori. Altman también se mostró a favor de un sistema de licencias para “garantizar que los modelos de IA más potentes se adhieran a un conjunto de requisitos de seguridad”. (View Highlight)
CEO de Open AI acabó reconociendo que las personas deberían poder decidir si quieren o no que sus contenidos se usen para entrenar estos sistemas. También dijo seguir en conversaciones con algunos artistas para tratar de ver cuál puede ser el modelo económico. (View Highlight)
No fue el único momento en el que el CEO de OpenAI escurrió el bulto. Dijo estar preocupado por el impacto negativo de la IA generativa, y sin embargo se mostró ajeno a la toma de responsabilidad al respecto ante preguntas como la de cómo afrontar el impacto de la IA en el empleo, que delegó en el gobierno. Eso sí, se mostró muy a favor de trabajar con el regulador para decidir cómo van a ser las normas que les afecten. (View Highlight)
La preocupación por el desempleo estuvo muy presente en la sesión, al igual que el poder de manipulación de la IA como arma para la desinformación, que puede a ser usada en intentos de injerencia electoral y en cualquier otro contexto (View Highlight)
También las respuestas de ChatGPT pueden dirigir el voto de un ciudadano indeciso. “Es una de mis áreas de mayor preocupación. La capacidad más general de estos modelos para manipular y persuadir, para proporcionar una especie de desinformación de forma interactiva, uno a uno”, respondió Altman. El riesgo es en realidad peor: que los sistemas manipulen a las personas incluso sin proponérselo. Es la conclusión de un estudio que Marcus aseguró que publicará pronto. (View Highlight)
Hemos fallado en los intentos por garantizar privacidad de datos, a pesar de que la industria nos ha pedido que la regulemos”, (View Highlight)
Creo que un mínimo es que los usuarios deberían poder optar por no permitir que empresas como la nuestra o las redes sociales utilicen sus datos. Debería ser fácil eliminar sus datos (View Highlight)
Sobre la transparencia y la rendición de cuentas insistieron Montgomery y Marcus. La primera habló de la necesidad de transparencia para que sepa con qué y cómo se ha entrenado un modelo de IA, y para gestionarlo y monitorear continuamente su comportamiento y rendimiento durante su ciclo de vida. Sin embargo, puso matices en la necesidad de regulación. Hablo de “un enfoque regulatorio de precisión”. “Creemos que la IA debe regularse en el punto de riesgo”, afirmó. (View Highlight)
valores que nos gustaría que honren nuestros sistemas de IA: que sean transparentes, que protejan nuestra privacidad, que estén libres de prejuicios y, sobre todo, que sean seguros. Pero los sistemas actuales no se ajustan a estos valores. (View Highlight)
Me preocupa mucho que las tecnologías de IA generativa puedan socavar la fe en los valores democráticos y las instituciones que tenemos. Los chinos insisten en que la IA que se está desarrollando en China refuerza los valores fundamentales del Partido Comunista Chino y el sistema chino. Y me preocupa cómo promovemos una IA que refuerce y fortalezca los mercados abiertos, las sociedades abiertas y la democracia”, aseguró el senador Christopher Coons. (View Highlight)
“Las salvaguardias sensatas no se oponen a la innovación. La rendición de cuentas no es una carga, ni mucho menos. Son la base de cómo podemos avanzar mientras protegemos la confianza pública; de cómo podemos liderar el mundo en tecnología y ciencia, pero también en la promoción de nuestros valores democráticos”, afirmó Blumenthal. (View Highlight)
a IA e internet son parte de una misma asignatura pendiente: la de la gobernanza digital. Ambas requieren de una aproximación global, de límites, de transparencia y rendición de cuentas, y de garantizar su seguridad y su desarrollo respetuoso con los derechos humanos, con las personas y con el medio ambiente. (View Highlight)