Entradas

Mostrando entradas de febrero, 2026

CTS y Patentes

Por acercar el tema de las patentes a mi tesis doctoral, la cual gira en torno al comportamiento de los consumidores de IA, creo que no es algo tan lejano. Creo que con las las interacciones finales de los usuarios de IA, y más concretamente de nuevas patentes, pueden llegar a plantearse preguntas como ¿aumenta la confianza hacia una patente?, ¿se reduce la percepción del riesgo?, ¿se justifica que los consumidores paguen más por su uso?, ¿generan una mayor sensación de rechazo por acaparamiento? Todas estas preguntas son ciertamente difíciles de responder y para obtener la respuesta sería necesario realizar una investigación en profundidad al respecto. Por poner un ejemplo: dos asistentes de IA para estudiar o trabajar, uno se define como un modelo con tecnología patentada” y el otro como un modelo “open-source o basado en modelos abiertos”. En el primero, el patentado puede leerse como calidad o como protección, pero en el segundo puede leerse como transparencia y control (“sé qué es...

Fraude científico

Un caso muy citado en mi campo, el marketing, es el de Brian Wansink, investigador de Cornell conocido por estudios llamativos sobre cómo pequeños cambios en el entorno pueden alterar cuánto comemos. Tras una investigación interna y después de que se retractaran seis artículos suyos en varias revistas, Wansink presentó su dimisión. En la información publicada se recoge que la universidad describió problemas como falta de documentación, preservación de resultados y autoría inapropiada. ​ El caso ganó fama por los resultados atractivos sostenidos por análisis débiles, decisiones cuestionables y un estilo de producción científica que priorizaba encontrar algo publicable. Todo este proceso de juicio mediático se aceleró tras una entrada de blog de 2016 en la que Wansink  elogiaba convertir resultados negativos en positivos y a partir de ahí varios investigadores hicieron análisis críticos de sus trabajos. Para entonces 13 artículos ya habían sido retractados. Wansink, por su parte, dis...

Paradigma CASA

El paradigma CASA (Computers Are Social Actors) plantea que las personas tienden a tratar a los ordenadores y sistemas inteligentes como si fueran actores sociales cuando la interacción ofrece señales suficientemente sociales. Esas señales pueden venir del uso del lenguaje, de la interactividad o de funcionalidades que el usuario asocia a capacidades humanas. Lo importante es que la respuesta social no implica que el usuario crea literalmente que la tecnología tiene mente, sino que se activan guiones y reglas sociales aprendidas durante la interacción. ​ En investigación sobre comportamiento de usuarios de IA, CASA es un marco muy operativo porque ayuda a convertir lo social en variables observables del diseño del sistema: cómo habla, cómo responde, cómo se presenta... y en respuestas medibles del usuario. Por ejemplo, cuando un agente usa un tono cooperativo y mantiene turnos fluidos, es posible observar respuestas típicamente sociales como cortesía, reciprocidad o atribución de rasgo...