Skip to content

El creciente valor económico de los datos privados en la era de los modelos de lenguaje extensos: un caso para la computación segura

Mientras los modelos de lenguaje extensos (LLMs) hacen que grandes cantidades de datos públicos sean fácilmente accesibles y de forma efectiva comoditizan el conocimiento público, los datos privados privados incrementan su valor: este cambio ha sido llamado “La Tragedia de los Datos Comunes de la Inteligencia Artificial” en una reciente publicación sobre la creciente división entre el valor de los datos públicos y privados.

La computación segura y otras técnicas que preservan la privacidad son el último bastión contra la erosión del valor de los datos producida por los modelos de lenguaje extensos (LLMs): como ya señalamos anteriormente en “La Valoración del Secreto y el Múltiplo de la Privacidad”, la computación segura mejora la valoración de los datos durante el proceso de diseminación pública, incluyendo su ingestión por los modelos de lenguaje extensos (LLMs).

Y aunque los modelos de equilibrio general estocástico dinámico han empezado a incorporar los efectos de los modelos de lenguaje extensos (por ejemplo, “De los servidores a las tasas: IA, capital TIC, y la tasa natural” y “Auges tecnológicos: de las Punto Com a la Inteligencia Artificial”), todavía no modelan las respuestas racionales de los agentes heterogéneos para contrarrestar sus efectos negativos mediante la profundización del capital intangible utilizando la computación segura: en la era de la Inteligencia Artificial, la única manera de mantener e incrementar el valor de los activos de información es mediante la computación segura.

Volver arriba