Por Cristhian Guadarrrama
En el vertiginoso mundo de la inteligencia artificial (IA) generativa, son las gigantes de la tecnología las que acaparan el centro del escenario. Los pesos pesados como Microsoft y las startups generosamente financiadas como OpenAI han obtenido asientos en la Casa Blanca y han protagonizado audiencias en el Congreso, marcando su influencia en el debate sobre la regulación de la IA. Sin embargo, este panorama deja a las empresas emergentes, tanto comerciales como no comerciales, en la sombra, enfrentando un futuro incierto.
El término “Big AI” ha estado modelando activamente las posibles políticas de IA. Recientemente, gigantes como OpenAI, Meta, Microsoft, Google, Anthropic y Amazon firmaron un acuerdo con la Casa Blanca, comprometiéndose a invertir en IA responsable y desarrollar marcas de agua para identificar contenido generado por IA. Pero detrás de esta alianza, existe un sector más amplio y diverso en el mercado de IA generativa. Aunque OpenAI, Google, Anthropic y Meta lideran con sus modelos básicos centrados en el lenguaje o imágenes, hay un creciente número de empresas más pequeñas que crean aplicaciones y herramientas. A medida que las reglas de la IA se formulan, estas empresas temen que sus voces queden en el olvido y sus necesidades pasen desapercibidas.
Triveni Gandhi, líder responsable de IA en Dataiku, una empresa de IA empresarial, señala que las pequeñas y medianas empresas en la cadena de valor de la IA se sienten excluidas de la conversación regulatoria. Se enfrentan a la preocupación de tener poco poder para influir en los resultados y no pueden permitirse interrupciones en sus operaciones, a diferencia de las grandes empresas que pueden aprovechar sus enormes fondos en caso de incumplimientos.
Un desafío clave para las empresas más pequeñas es la responsabilidad. Aquellas en el medio de la cadena de valor, como Dataiku, que crean aplicaciones de análisis de datos, carecen de control sobre cómo los modelos que utilizan recopilan información. A pesar de la creación del Frontier Model Forum, una coalición de la industria liderada por OpenAI, Microsoft, Anthropic y Google, no se menciona si se ampliará la membresía a más empresas de IA. Esto deja a las startups más pequeñas preocupadas por su exclusión.
Ron Bodkin, cofundador de ChainML, sugiere que calibrar los requisitos y sanciones en función del tamaño de los jugadores de IA ayudaría a abordar las preocupaciones de las empresas más pequeñas. Gandhi también aboga por la inclusión de más partes interesadas en coaliciones de la industria y en la creación de estándares, para que las voces de aquellos que trabajan con modelos básicos no sean ignoradas.
La influencia de “Big AI” en la regulación de la IA ha sido motivo de alarma. AI Now, una organización preocupada por el impacto de la IA en la sociedad, ha señalado que las grandes empresas han moldeado la narrativa en torno a la tecnología, influyendo en la percepción pública. Sugieren que los reguladores y el público deben liderar la conversación.
Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute, subraya que fomentar la confianza en la IA requiere la participación de más actores que solo las grandes corporaciones. La opinión de grupos no gubernamentales, académicos, agencias internacionales y expertos en políticas es crucial. A medida que los legisladores continúan deliberando sobre la regulación de la IA, aún hay tiempo para dar voz a una amplia gama de perspectivas y asegurarse de que las políticas resultantes prioricen el interés público y la ética sobre las ganancias corporativas.
La Regulación de la IA Está Tomando Forma, pero las Startups se Están Quedando Fuera
En el vertiginoso mundo de la Inteligencia Artificial (IA) generativa, son las gigantes de la tecnología las que acaparan el centro del escenario. Los pesos pesados como Microsoft y las startups generosamente financiadas como OpenAI han obtenido asientos en la Casa Blanca y han protagonizado audiencias en el Congreso, marcando su influencia en el debate sobre la regulación de la IA. Sin embargo, este panorama deja a las empresas emergentes, tanto comerciales como no comerciales, en la sombra, enfrentando un futuro incierto.
El término “Big AI” ha estado modelando activamente las posibles políticas de IA. Recientemente, gigantes como OpenAI, Meta, Microsoft, Google, Anthropic y Amazon firmaron un acuerdo con la Casa Blanca, comprometiéndose a invertir en IA responsable y desarrollar marcas de agua para identificar contenido generado por IA. Pero detrás de esta alianza, existe un sector más amplio y diverso en el mercado de IA generativa. Aunque OpenAI, Google, Anthropic y Meta lideran con sus modelos básicos centrados en el lenguaje o imágenes, hay un creciente número de empresas más pequeñas que crean aplicaciones y herramientas. A medida que las reglas de la IA se formulan, estas empresas temen que sus voces queden en el olvido y sus necesidades pasen desapercibidas.
Triveni Gandhi, líder responsable de IA en Dataiku, una empresa de IA empresarial, señala que las pequeñas y medianas empresas en la cadena de valor de la IA se sienten excluidas de la conversación regulatoria. Se enfrentan a la preocupación de tener poco poder para influir en los resultados y no pueden permitirse interrupciones en sus operaciones, a diferencia de las grandes empresas que pueden aprovechar sus enormes fondos en caso de incumplimientos.
Un desafío clave para las empresas más pequeñas es la responsabilidad. Aquellas en el medio de la cadena de valor, como Dataiku, que crean aplicaciones de análisis de datos, carecen de control sobre cómo los modelos que utilizan recopilan información. A pesar de la creación del Frontier Model Forum, una coalición de la industria liderada por OpenAI, Microsoft, Anthropic y Google, no se menciona si se ampliará la membresía a más empresas de IA. Esto deja a las startups más pequeñas preocupadas por su exclusión.
Ron Bodkin, cofundador de ChainML, sugiere que calibrar los requisitos y sanciones en función del tamaño de los jugadores de IA ayudaría a abordar las preocupaciones de las empresas más pequeñas. Gandhi también aboga por la inclusión de más partes interesadas en coaliciones de la industria y en la creación de estándares, para que las voces de aquellos que trabajan con modelos básicos no sean ignoradas.
La influencia de “Big AI” en la regulación de la IA ha sido motivo de alarma. AI Now, una organización preocupada por el impacto de la IA en la sociedad, ha señalado que las grandes empresas han moldeado la narrativa en torno a la tecnología, influyendo en la percepción pública. Sugieren que los reguladores y el público deben liderar la conversación.
Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute, subraya que fomentar la confianza en la IA requiere la participación de más actores que solo las grandes corporaciones. La opinión de grupos no gubernamentales, académicos, agencias internacionales y expertos en políticas es crucial. A medida que los legisladores continúan deliberando sobre la regulación de la IA, aún hay tiempo para dar voz a una amplia gama de perspectivas y asegurarse de que las políticas resultantes prioricen el interés público y la ética sobre las ganancias corporativas.