Entrevista a Jorge Brower: perspectivas del CECC respecto de Gaurav Tewari

El líder del Centro de Estudios de la Comunicación y la Cultura (CECC) opina sobre la conferencia magistral Artificial Intelligence as an Accelerator of Productivity Development in the Americas a la que asistió.

Desde el año pasado que el CECC (Centro de Estudios de la Comunicación y la Cultura) del Departamento de Publicidad e Imagen (DPI) de la Facultad Tecnológica de la Usach, liderado por el profesor Dr. Jorge Brower Beltramin, viene trabajando el tema de la inteligencia artificial en conjunto con la profesora Dra.(c). Aracelli Muñoz Baldi, uno de sus resultados destacados es el segundo capítulo del libro “Inteligencia Artificial en la docencia y la investigación”, volumen 5 de la obra completa “Tecnología y Sociedad” que está disponible en la biblioteca de la UNESCO y en otras plataformas como FACTEC  donde se abordan conceptos que se tratarán en esta entrevista. 

En marzo del 2025, Brower participó de la XX Jornadas Internacionales de Filosofía Política organizada por la Universidad de Barcelona, el tema central se llamó “Política y Humanidad en la Era de la Inteligencia Artificial”. En dicha instancia, el CECC hizo presente su perspectiva frente a los discursos ideológicos que están dirigiendo y manejando el desarrollo de las nuevas tecnologías frente a una cantidad de expositores importante.

A fines de septiembre de este año 2025, Brower recibió una invitación de parte de la CEPAL (Comisión Económica Para América Latina y el Caribe) en conjunto con la Embajada de Estados Unidos, a una conferencia magistral de Gaurav Tewari, la que trataría sobre los aportes de la inteligencia artificial para el desarrollo de América Latina. Fue una invitación cerrada para alrededor de 200 investigadores, académicos y gente relacionada con el mundo de la tecnología. 

Gaurav Tewari es un emprendedor e inversionista tecnológico radicado en Estados Unidos, fundador y socio gerente de Omega Venture Partners, firma de capital de riesgo enfocada en inversiones en empresas de base tecnológica, especialmente en inteligencia artificial, datos y automatización. Cuenta con estudios en Ciencias de la Computación en el MIT y un MBA en la Wharton School, y ha desarrollado una trayectoria profesional ligada a la inversión y estrategia en el ecosistema tecnológico internacional.

-¿De qué trató la clase magistral? 

-Tewari basó toda la primera parte de su exposición en los alcances de la inteligencia artificial para el desarrollo de América Latina. Vino a plantear dos cosas a Chile: Lo primero, es que América Latina tiene un déficit muy importante en una brecha del crecimiento, que tiene que ver con el acceso a las oportunidades, que acá son muy visibles y se relaciona con el concepto de la superación de la pobreza y, Tewari plantea que América Latina sufre de esto a pesar de tener países en vía al desarrollo, como es el caso de Chile.

Entonces, lo que Tewari dice es que todas las brechas y vulnerabilidades que hay en el mundo latinoamericano pueden ser acompañadas y superadas por la inteligencia artificial, jugando un rol central, como agilizar procesos, entregar información procesada que ayude a un planteamiento estratégico más acertado en el caso de las políticas públicas, ya que una de las grandes fallas en América Latina es la construcción, desarrollo y aplicación de las políticas públicas, las que son de una calidad bastante deficiente.

Entonces, sin olvidar que esto se plantea en el contexto de un pensamiento cepaliano, su propuesta es que este instrumento, esta máquina algorítmica, que ya está a niveles de desarrollos muy altos y que está encabezada por los Estados Unidos, eso es otra cosa que hay que tener muy claro, debiese tener una instalación o una penetración en los contextos de nuestros países, ese es el planteamiento de Tewari. 

-¿Qué piensa el Centro de Estudios de la Comunicación y la Cultura CECC sobre lo que plantea Tewari?

-Lo que nosotros hemos identificado es que en materia de nuevas tecnologías, o que yo he llamado novísimas tecnologías o tecnologías muy recientes emergentes, correspondientes a aquellas surgidas hace no más de 40 o 50 años atrás, lo que se puede observar, es que el polo de desarrollo que más nos toca es el que viene de Estados Unidos.

Segundo, todo lo que tiene que ver con los dispositivos de IA están íntimamente amarrados al sistema económico neoliberal, es decir, el neoliberalismo y la IA son dos formas de funcionamiento, una económica, y la otra, de producción de conocimiento, están muy vinculadas. 

En el contexto neoliberal de un capitalismo acelerado se producen dos posiciones que también están en los Estados Unidos, pero ahí tengo que hacer un alcance: frente al desarrollo de las nuevas tecnologías y de las novísimas tecnologías las posiciones gubernamentales, o de los Estados, tiene dos posturas distintas, una de estas se ha llamado altruismo eficaz, una corriente presente en Estados Unidos y en Europa y que consiste básicamente en lo siguiente, establecer una normativa regulatoria fuerte para el desarrollo de la inteligencia artificial, regulación, condicionamientos que vengan desde diferentes partes, las instituciones, desde las ONGs (Organizaciones No Gubernamentales), en fin, todo el mundo institucional. Esta perspectiva no se trata de un desarrollo desbocado de la inteligencia artificial y de otras nuevas tecnologías y otras como la robótica, sino que este desarrollo debe ser pensado a largo plazo, no puede manejarse solo, no es deseable que las nuevas tecnologías se manejen bajo su propia dinámica sin estar controlada por instancias éticas, políticas, etcétera. Esta postura, en particular al gobierno de Trump no le acomoda, porque lo que ellos están incentivando es la otra postura, que cae dentro de lo que se le denomina aceleracionismo eficaz, que consiste en todo lo contrario que la postura anterior, y tiene que ver con una desregularización en el desarrollo de las tecnologías, es decir, que las tecnologías se desarrollen en libertad. 

Estados Unidos ha tenido laboratorios muy importantes para esto como Silicon Valley. Las cosas que en su momento se hicieron en la Universidad de Stanford y en otras universidades norteamericanas donde el objetivo era desarrollo, desarrollo, desarrollo, un desarrollismo sin control(…) esto es complicado, causa problemas porque las regulaciones quedan fuera de la evolución de la inteligencia artificial.

Entonces, los europeos también han tenido intenciones de un proyecto de desarrollo de la IA, está el Proyecto Mistral AI que encabezaba el gobierno de Macron, pero el vicepresidente de Estados Unidos, James David Vance, estuvo dos veces este año en Europa y en París, y le dijo a los europeos que no iba el proyecto de ellos porque es muy regulatorio y normativo y porque no los deja avanzar(...),” y que los que liderarán el desarrollo de la inteligencia artificial será Estados Unidos”. Se lo dejó bien claro a los alemanes, a los franceses y al que quisiera escuchar.

Desde el CECC vemos que hay estas dos posturas, una que es de desarrollo con prudencia, normativa que se pregunta: ¿cuál va a ser el rol que jugará el ser humano?¿cómo afectará a las comunidades, al mundo del trabajo? etcétera; y la otra perspectiva aceleracionista que busca un trabajo tecnológico que no tenga cotas, que no tenga márgenes, que no tenga límites.

-¿Neoliberal en el fondo?

-Claro, y la pregunta crucial frente al aceleracionismo es ética, que tiene que ver con cuánto de esto va a ser dañino, artificial para la vida del ser humano en sociedad. 

Nosotros como centro, ya que esta es una Facultad Tecnológica, nos parecía de suma importancia dar a conocer en primera instancia el resultado de esta participación en la clase magistral de Tewari porque, finalmente, este tipo de personajes del mundo de la inteligencia artificial, lo que nos está diciendo es que nos sumemos al enfoque norteamericano y que permitamos que, tanto la introducción como el desarrollo de la IA en Chile, vaya con este carril que es del desarrollo a ultranza, que no tenga que estar sujeto a normativas de ningún tipo y que de alguna manera perjudique ese desarrollo.

-Es llamativo que cuando busqué en ChatGPT sobre Tewari, planteaba que hay muchas cosas positivas de la inteligencia artificial pero haciendo la salvedad de que todo dependía de cómo el ser humano utilice esto y, desde esa respuesta, se mostraba a Tewari como alguien moderado, pero si uno lo piensa, la respuesta de ChatGPT oculta que Tewari tiene una perspectiva mucho más liberal. 

-Claro, ese comentario que tú estás haciendo es muy válido porque, efectivamente, en el discurso de estos intelectuales, por llamarlo así, excepto los más radicales que no tienen empacho en decir realmente lo que piensan. Por ejemplo, tipos como Elon Musk en sus discursos han defendido extensas jornadas laborales, incluso cercanas a las 58 horas semanales en pro del desarrollo acelerado de la tecnología.

En el fondo Tewari invita a apostar por un uso de la inteligencia artificial que evite los controles y que simplifique la normativa jurídica, podría verse como un elemento favorable, y claro puede tenerlo.

-Menos burocracia…

-Pero en el fondo lo que se dice, como quien dice -al monstruito dejen que se desarrolle solo-, no le pongan trabas, y el resultado de eso puede ser cualquier cosa. Cualquier tipo de futurología que uno pueda hacer se desploma frente a la incertidumbre en que vivimos y frente a este desarrollo que se produce dentro de instituciones que protegen el descontrol, universidades, institutos de investigación, laboratorios, tú no sabes lo que está pasando ahí, en el caso de un laboratorio chino que sería la contraparte, tampoco sabes.

Lo más probable es que aquí haya un desarrollo que apunte al descontrol. Con el fin de tener más información, de conocer quién eres tú, quién soy yo, de manejarnos mejor a nivel social(...), pero ya lo vemos, de repente yo estoy pensando en un producto y me aparece en el celular, cuando yo solo estaba pensándolo, ni siquiera habiendo puesto una letra. Yo pienso que necesito una camisa y me aparece un anuncio. Cuando yo te hablo del descontrol me refiero a que están actuando sin que la ciudadanía sepa lo que están haciendo, porque tú no sabes cómo actúan.

-No, y tampoco las personas se dan el tiempo de saber si es que quieren aceptar o no el desarrollo porque al final siempre se impone. 

-Exacto. Está el factor tiempo por ejemplo, que simplemente no lo permite y por comodidad y por el tipo de vida que llevamos tan vertiginosa no vamos a tener tiempo para tomar esas decisiones y vamos a tener que optar por lo que se nos ofrece. Todas esas cosas que estamos conversando tienen que ver con esta lógica aceleracionista. Es un aceleremos el progreso, demos vuelta la tuerca, pero no tenemos claro qué va a salir de esa aceleración.

Eso es altamente peligroso, cuando tú no le pones los controles éticos, porque los controles éticos tienen que ver con que en este desarrollo, lo que sigue al centro de las cosas, es el ser humano, entonces es el ser humano el que va a ser afectado, para bien o para mal. Y si nosotros, en términos de democracia, desconocemos lo que está sucediendo con las novísimas tecnologías, es una bomba de tiempo. 

-Con novísimas tecnologías, yo no hubiera pensado en algo que se hizo hace 40 o 50 años atrás.

-Lo que pasa es que las novísimas tecnologías son fundamentalmente las del siglo XXI, pero no hay que olvidarse que la inteligencia artificial, con la máquina de Turing, ya después de la Segunda Guerra Mundial se dio inicio a lo que iba a ser una informática compleja y  las máquinas de inteligencia o pensantes tienen tranquilamente 50 o 60 años. Pero si tú piensas en las novísimas novísimas tecnologías considerando otros factores, el surgimiento es ahora, por ejemplo lo que están haciendo los japoneses en robótica donde los japoneses se están casando con robots y robots mujeres que están programadas con cierta resistencia, de tal modo que tú no les puedes dar órdenes tan fácilmente, sino que funcionan, de alguna manera, como seres humanos, que te contraargumentan, que te dicen por qué sí y por qué no, justamente para recrear la interacción humana.

-Parece inconcebible.

-Hay miembros de las sociedades que le están preguntando todo a las inteligencia artificial, hasta cómo les va a ir en la vida, está reemplazando al tarot, los psicólogos se pueden quedar sin pega, está contestado muchas cosas y el ser humano está aprendiendo a dialogar con la máquina, lo cual es muy peligroso, porque en cualquier momento te puede hacer una trampa y si tú le das insumos de análisis, ella va a aprender a hacer trampa. Y una máquina que sabe hacer trampa es terriblemente peligrosa, porque puede instalar un misil, puede hacer cualquier cosa. Todo eso es parte del aceleracionismo eficaz, podría cambiar muchísimo todo en un año y complejizarse de manera brutal, un año ahora es lo que antes eran 3 mil ó 4 mil años. 

Con esta entrevista, el profesor Jorge Brower expuso las principales inquietudes del Centro de Estudios de la Comunicación y la Cultura (CECC) frente a un enfoque aceleracionista del desarrollo de la inteligencia artificial, que avanza sin suficientes marcos éticos ni regulatorios y que podría transformar profundamente la vida humana y social. En este escenario, la Facultad Tecnológica (FACTEC) se plantea la necesidad de comprender críticamente el contexto actual y aportar, desde la academia, a una reflexión informada sobre los desafíos y responsabilidades que implica el desarrollo tecnológico contemporáneo. 

 

Periodista: Constanza Pacheco Bustos.

Martes, Diciembre 30, 2025 - 11:45