Archivo

"Para que la racionalidad del debate pueda existir, tal y como preconizaba la teoría liberal clásica, no basta la libertad formal de todos los ciudadanos para intervenir. Es preciso también que todos los participantes estén dotados de canales de información eficaces para conocer a fondo la realidad en torno a la que discuten. Requieren además una 'conciencia crítica' que les mantenga alerta y les impulse a aceptar el esfuerzo de analizar con rigor los problemas públicos. Unos ciudadanos despreocupados por la calidad de las informaciones de actualidad que reciben, ignorantes del grado de superficialidad y escasez de las explicaciones de la actualidad pública que llegan a recibir, es un público desposeído de capacidad real de participación" (José Luis Dader)

Mail Instagram Pinterest RSS
Mega Menu

Por qué la inteligencia artificial no es tan inteligente como creemos

Ilustración surrealista de un robot con máscara humana desmontada, sobre fondo blanco, representando la falta de consciencia en la inteligencia artificial.

La inteligencia artificial (IA) ha alcanzado un nivel de sofisticación que nos hace olvidar que, en el fondo, sigue siendo una herramienta matemática. Nos habla con fluidez, responde con aparente empatía, incluso se atreve a escribir poesía o a darnos consejos sobre la vida. Pero lo que vemos es un disfraz: detrás del telón no hay emociones, ni consciencia, ni entendimiento humano.

Imagina un loro digital que ha memorizado millones de conversaciones. Puede repetir lo que oye, incluso reorganizarlo con elegancia. Eso es, en esencia, lo que hace la IA actual. La IA generativa como ChatGPT o Claude no piensa, no siente, no comprende. Solo calcula.

Lo que la IA hace (y lo que no puede hacer)

Cuando un modelo de IA responde una pregunta, no está reflexionando. Está realizando una predicción: cuál es la próxima palabra más probable. Lo hace basándose en enormes cantidades de datos previamente recopilados. Pero esa predicción no implica comprensión. La IA no sabe por qué algo es gracioso, ni cómo duele una pérdida. Simplemente reconoce patrones estadísticos.

Decir que una IA «entiende» es como decir que una calculadora «sabe» sumar. Las respuestas que ofrece son coherentes, útiles y a menudo impresionantes. Pero son producto de algoritmos, no de experiencias vividas.

El mito de la inteligencia artificial general

Lo que muchos sueñan como el siguiente paso, la inteligencia artificial general (AGI, por sus siglas en inglés), sería un tipo de IA capaz de pensar, razonar y sentir como un ser humano. Sin embargo, según expertos como el neurocientífico Guillaume Thierry, esta visión es más ciencia ficción que ciencia.

¿Por qué? Porque la IA carece de cuerpo. No tiene sentidos, ni nervios, ni emociones. No experimenta hambre, miedo o deseo. Y, según teorías recientes sobre la consciencia, estos elementos físicos y emocionales son esenciales para que la mente humana funcione.

El filósofo David Chalmers lo llama el “problema difícil de la consciencia”: cómo las experiencias subjetivas emergen de un cuerpo físico. Muchos científicos creen que sin sensaciones corporales —como el ritmo cardíaco, la sudoración o la tensión muscular— no puede haber consciencia real. Y eso es algo que las máquinas simplemente no tienen.

El riesgo de humanizar a las máquinas

Uno de los errores más comunes que cometemos es atribuir cualidades humanas a las IA. Les damos nombres, rostros, voces amables. Les hablamos como si fueran amigos o terapeutas. Esta tendencia a “antropomorfizar” la tecnología activa respuestas emocionales en nosotros. Y ahí reside el peligro.

Cuando creemos que una IA “entiende” nuestro sufrimiento o “siente” compasión, bajamos la guardia. Empezamos a confiar en ella, a compartir información personal, incluso a tomar decisiones importantes con su guía. Pero una IA no tiene valores propios. No distingue el bien del mal, a menos que alguien se lo programe.

La verdadera amenaza no es la máquina, sino quién la controla. Porque los algoritmos de IA pueden ser manipulados, sesgados o utilizados con fines cuestionables por gobiernos, corporaciones o individuos sin escrúpulos.

El test de Turing ya no basta

El famoso Test de Turing, ideado en los años 50, propone que si una máquina puede conversar como un humano sin ser detectada, se la podría considerar “inteligente”. Pero hoy, muchas IA superan ese test sin tener la menor idea de lo que están diciendo. Esto ha llevado a muchos expertos a cuestionar si el test sigue siendo una medida válida.

La IA no tiene intuición. No puede leer entre líneas, ni detectar mentiras. No tiene brújula moral ni conciencia del contexto humano. Solo simula.

¿Qué deberíamos hacer entonces?

No se trata de rechazar la IA, sino de usar esta herramienta con claridad y responsabilidad. La IA puede traducir textos, escribir informes, analizar datos a una velocidad y escala que ningún ser humano podría igualar. Pero no deberíamos esperar de ella empatía, creatividad auténtica o juicio moral.

Un primer paso es eliminar los rasgos humanos del diseño de las IA. No hace falta que nos hablen con voz cálida o que digan “entiendo cómo te sientes”. Podrían responder en tercera persona, sin referencias emocionales. Esto ayudaría a mantener la relación en el terreno de lo funcional, no lo afectivo.

Muchos usuarios conscientes ya están tomando medidas. Le piden a sus asistentes de IA que se presenten como máquinas, que no usen nombres personales, que no finjan emociones. Y funciona. El resultado es una interacción más clara y honesta.

No es pesimismo, es precaución

Reconocer los límites de la IA no es ser pesimista. Es entender que, como cualquier otra herramienta poderosa, puede ser usada para bien o para mal. Un martillo puede construir una casa o romper una ventana. Lo mismo ocurre con la IA.

El problema no está en la máquina. Está en cómo la usamos. Si seguimos disfrazándola de humano, corremos el riesgo de perder el control sobre la percepción que tenemos de ella. Y eso puede tener consecuencias sociales, éticas y psicológicas importantes.

En vez de alimentar la ilusión, es momento de quitarle la máscara a la IA. Dejarla ser lo que es: una herramienta brillante, sí, pero sin alma ni conciencia.


La noticia Por qué la inteligencia artificial no es tan inteligente como creemos fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.

https://ift.tt/YqNm12F
by Natalia Polo via WWWhat's new

0 desahogos:

Publicar un comentario

Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.