El auge de la inteligencia artificial puede no terminar bien, advierte el organismo de control de la competencia del Reino Unido | Inteligencia artificial (IA)

La gente no debería dar por sentado un resultado positivo del auge de la inteligencia artificial, advirtió el organismo de control de la competencia del Reino Unido, citando riesgos que incluyen una proliferación de información errónea, fraude y reseñas falsas, así como altos precios por el uso de la tecnología.

La Autoridad de Competencia y Mercados ha dicho que las personas y las empresas podrían beneficiarse de una nueva generación de sistemas de inteligencia artificial, pero el dominio de actores arraigados y la falta de aplicación de las leyes de protección al consumidor plantean una serie de amenazas potenciales.

La CMA emitió la advertencia en una revisión inicial de los modelos centrales, la tecnología que sustenta las herramientas de inteligencia artificial como el chatbot ChatGPT y los generadores de imágenes como Stable Diffusion.

El surgimiento de ChatGPT, en particular, ha provocado un debate sobre el impacto de la inteligencia artificial generativa (un término general para herramientas que producen textos, imágenes y salidas de voz convincentes a partir de indicaciones humanas escritas) en la economía al eliminar los empleos manuales de los blancos en áreas como el derecho, la tecnología de la información y los medios de comunicación, así como el potencial de desinformación masiva dirigida a votantes y consumidores.

La directora ejecutiva de CMA, Sarah Cardell, dijo que la velocidad a la que la inteligencia artificial se está convirtiendo en parte de la vida cotidiana de las personas y las empresas es “dramática”, y tiene el potencial de facilitar millones de tareas cotidianas y aumentar la productividad, una medida del crecimiento económico. eficiencia, o la cantidad de producción generada por un trabajador por cada hora trabajada.

Sin embargo, Cardell advirtió que la gente no debe dar por sentado un resultado positivo. “No podemos dar por sentado un futuro positivo”, dijo en un comunicado. “Sigue existiendo un riesgo real de que el uso de la IA se desarrolle de una manera que socave la confianza de los consumidores o esté dominado por unos pocos actores que ejerzan un poder de mercado que impida que todos los beneficios se sientan en toda la economía”.

La CMA define los modelos de productos básicos como “modelos grandes y generales de aprendizaje automático que se entrenan con grandes cantidades de datos y se pueden escalar a una amplia gama de tareas y operaciones”, incluida la potencia de chatbots, imágenes y productos de software Microsoft Office 365.

El organismo de control estima que una serie de empresas, incluidas Google, Meta, propietario de Facebook, y Microsoft, han lanzado alrededor de 160 modelos básicos, así como nuevas empresas de inteligencia artificial como el desarrollador de ChatGPT OpenAI y Stability AI, con sede en el Reino Unido, que financió a Stable. Generador de imágenes de difusión.

La CMA agregó que muchas empresas ya están presentes en dos o más aspectos clave del ecosistema de modelado de IA, y que grandes desarrolladores de IA como Google, Microsoft y Amazon poseen infraestructura vital para la producción y el despliegue de bases de modelado de IA, como centros de datos. , servidores y repositorios de datos. , así como presencia en mercados como compras online, búsquedas y software.

El regulador también dijo que seguirá de cerca el impacto de las inversiones de las grandes empresas tecnológicas en desarrolladores de IA, como Microsoft en OpenAI y la matriz de Google, Alphabet, en Anthropic, y ambos acuerdos incluyen la prestación de servicios de computación en la nube, un recurso importante para la industria. .

Es “esencial” que el mercado de la IA no caiga en manos de un pequeño número de empresas, con la posible consecuencia a corto plazo de que los consumidores estén expuestos a niveles significativos de información falsa, fraude relacionado con la IA y reseñas falsas. dijo la CMA. Ella dijo.

A largo plazo, esto podría permitir a las empresas que desarrollan modelos básicos ganar o consolidar posiciones de poder de mercado, y también llevar a las empresas a cobrar precios elevados por utilizar la tecnología.

El informe dice que la falta de acceso a elementos clave para construir un modelo de IA, como datos y potencia informática, podría generar precios elevados. Refiriéndose a modelos de “código cerrado” como GPT-4 de OpenAI, que sustenta ChatGPT y no es accesible ni modificable por el público, el informe afirma que el desarrollo de modelos líderes puede limitarse a un puñado de empresas.

“Las empresas restantes desarrollarían posiciones de fuerza que podrían darles la capacidad y el incentivo para proporcionar modelos sólo sobre una base de fuente cerrada e imponer precios y términos injustos”, afirma el informe.

La CMA añadió que la propiedad intelectual y los derechos de autor también son cuestiones importantes. Autores, editores de noticias, incluido The Guardian, y las industrias creativas han expresado su preocupación por el uso no acreditado de su material en la construcción de modelos de inteligencia artificial.

Como parte del informe, la CMA propuso un conjunto de principios para desarrollar modelos de IA. Estos son: garantizar que los desarrolladores de modelos centrales tengan acceso a datos y potencia informática y que los primeros desarrolladores de IA no obtengan una ventaja establecida; se permite el desarrollo de modelos “cerrados” como el GPT-4 de OpenAI y modelos de “código abierto” disponibles públicamente, que pueden ser adaptados por desarrolladores externos; las empresas tienen varias opciones para acceder a modelos de IA, incluido el desarrollo de las suyas propias; los consumidores deberían poder utilizar múltiples proveedores de IA; ninguna conducta anticompetitiva como “agregar” modelos de IA en otros servicios; Los consumidores y las empresas reciben información clara sobre el uso y las limitaciones de los modelos de IA.

La CMA dijo que publicará una actualización sobre sus principios y cómo se implementaron en 2024. El gobierno del Reino Unido organizará una cumbre mundial sobre seguridad de la IA a principios de noviembre.

 

Compruebe también

El evento del iPhone 15 de Apple no reveló mucho sobre los auriculares Vision Pro

¿Has visto el último lanzamiento de producto de Apple? ¿Has leído sobre esto o has …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *