top of page

¿Buscamos verdad o solo resolver problemas?

Actualizado: 14 ago

Buscamos verdad o solo resolver problemas. ChatGPT es una prótesis cerebral.
En tiempos de automatización, gobernar sin pensar es cederle el mando al algoritmo.

Durante décadas repetimos el adagio “la información es poder” como si fuera una verdad absoluta. En la etapa embrionaria de la era digital, Web 1.0, acumular datos era sinónimo de tener ventaja. Pero algo ha cambiado. Hoy, cuando todo puede medirse, rastrearse y almacenarse, el acceso a la información ya no es exclusivo ni escaso. Vivimos rodeados de datos. Lo que escasea ahora es el criterio.


El verdadero poder ya no está en acumular información, sino en convertirla en inteligencia. Es decir, en saber interpretarla, contextualizarla y, sobre todo, usarla con sentido ético y estratégico. Einstein decía, “La imaginación es más importante que el conocimiento. El conocimiento es limitado. La imaginación rodea al mundo.” En un mar saturado de datos y con una tendencia exponencial a la automatización, necesitamos más que conocimiento técnico; necesitamos la imaginación y el pensamiento crítico para decidir qué hacemos con lo que sabemos.


En esta nueva era de la gobernanza digital, donde los algoritmos prometen decisiones más rápidas y “eficientes”, el riesgo es evidente: dejar de pensar. Al adoptar modelos automatizados como intermediarios, corremos el peligro de delegar el juicio humano a fórmulas opacas. Y eso tiene consecuencias: disculpas corporativas, ordenes de jueces para borrar algoritmos, demandas y cancelación en redes sociales.


Weapons of math destruction

Automatizar sin pensar es abdicar el poder. Es convertir al algoritmo en una especie de oráculo moderno, es como tiras los huesos de pollo al centro de la mesa y no cuestionamos la premonición.


La Científica de Datos Cathy O’Neil en su libro Weapons of Math Destruction, explora la diferencia entre los modelos matemáticos benignos y los peligrosos, y muestra los efectos negativos que producen los modelos matemáticos peligrosos. La autora afirma, "Los algoritmos no son neutrales; reflejan y amplifican los sesgos de quienes los diseñan. Si no los comprendemos ni los gobernamos, pueden convertirse en cajas negras que deciden por nosotros, sin rendir cuentas."


El año pasado, la OCDE actualizó sus principios para adaptarse a los desafíos que plantea el avance acelerado de la IA generativa, amplía conceptos como la integridad de la información y la sostenibilidad ambiental, así como la necesidad de implementar mecanismos para reparar, desactivar o auditar modelos que pudieran causar daño, además de fincar responsabilidades a toda la cadena de desarrollo y uso de IA. Pero las actualizaciones al paso que van, es a ritmo de tortuga.


Empresas como Hugging Face crean iniciativas como Bug Bounty para evitar sesgos éticos y fomentar la transparencia en la inteligencia artificial, ofreciendo recompensas de $10,000 dólares a ingenieros que identifiquen sesgos algorítmicos en sus modelos.


La Base de Datos de Incidentes de IA rastrea más de 700 casos de sesgos algorítmicos verificados, desde sistemas de reconocimiento facial que fallan hasta algoritmos de préstamos que excluyen barrios migrantes. Está Base de Datos es la prueba, el cuchillo ensangrentado, de que la automatización sin gobernanza genera injusticias a velocidad industrial. Cada registro evidencia un riesgo: que deleguemos decisiones en algoritmos que perpetúan discriminación y desigualdad. Como afirma la eticista, Timnit Gebru, exinvestigadora de Ethical AI en Google, “Los algoritmos son espejos que reflejan nuestras desigualdades. Si no auditamos su lógica, automatizaremos la injusticia.”


Ante la pregunta, ¿buscamos verdad o solo resolver problemas? Esta no es meramente filosófica: es una pregunta estratégica. En un mar dominado por datos, la obsesión por la “verdad” absoluta puede ser tan peligrosa como la solución más eficaz que ignora el contexto ético y social.


La gobernanza digital no debe elegir entre una u otra. No se trata solo de resolver problemas con eficiencia, ni de perseguir una verdad pura. Se trata de resolver problemas con criterio, con una conciencia profunda de las implicaciones políticas, sociales y humanas de cada decisión que tomamos mediante tecnologías emergentes.


El Centro de Ética Digital aborda los dilemas de la Inteligencia artificial y las tecnologías emergentes
Se trata de resolver problemas con criterio.

La pregunta no es si debemos usar la inteligencia artificial o no, eso ya es un hecho, sino si somos capaces de gobernar su uso con criterio. ¿Qué decisiones automatizamos? ¿Cuáles no deberían delegarse jamás? ¿Qué marcos éticos y legales necesitamos para mantener el control humano en el centro?



La información, por sí sola, ya no es poder. El nuevo poder reside en la inteligencia: en la capacidad de conectar datos con juicio, de combinar automatización con pensamiento crítico, y de construir gobernanza con sentido humano. Porque gobernar sin pensar es, finalmente, dejar que nos gobierne un algoritmo.


Comentarios


bottom of page