Post

Cómo evitar que los artículos científicos parezcan hechos por una máquina

Cómo evitar que los artículos científicos parezcan hechos por una máquina

Source: The Conversation – (in Spanish) – By Moisés Díaz Cabrera, Profesor Titular de Física Aplicada, Universidad de Las Palmas de Gran Canaria

PeopleImages.com/Shutterstock

Quien ha escrito un artículo científico sabe bien lo complejo que es. La ardua (y en ocasiones tediosa) revisión de la literatura va acompañada de una investigación propia, y no vale con decir cualquier cosa, sino que se deben aportar resultados novedosos. A esto se suma una cuidadosa gestión de las citas y referencias, y todo ello debe expresarse con orden y precisión.

La guinda del pastel es que nos toque escribir en inglés, el idioma dominante de la ciencia; quienes no somos hablantes nativos estamos en clara desventaja.

Hasta hace poco, las herramientas disponibles se limitaban a corregir la gramática y el estilo. Hoy, la inteligencia artificial generativa (abreviada como GenAI en inglés) puede reescribir párrafos completos, sintetizar resultados e interpretarlos, o sugerir párrafos que aumenten el contenido de alguna de las secciones de un manuscrito, todo en un inglés correcto y adecuado al registro académico.

Pero no es oro todo lo que reluce. Varios estudios recientes muestran que, cuando las personas saben que un texto se ha producido con ayuda de IA, tienden a confiar menos en su autor. Podría parecer que la solución es ocultar su uso, pero esto tampoco resuelve el problema: si el lector sospecha que los autores han usado IA sin declararlo abiertamente, la desconfianza puede ser igual o, incluso, mayor.

Así surge un auténtico dilema ético: ¿declarar o no declarar su uso?

Por qué importa que tu texto no parezca de IA

Saber si un texto ha sido generado por inteligencia artificial no es tan fácil como parece. Y es que, según muestran investigaciones publicadas en Proceedings of the National Academy of Sciences, las personas nos equivocamos cuando nos guiamos por la intuición para averiguar si un texto es artificial.

Es algo que relacionamos con el lenguaje demasiado formal o complejo o con los textos impersonales o de tonos fríos. Al contrario, asumimos que los textos que incluyen experiencias personales provienen de autores humanos.

El problema radica en que muchas de estas señales son engañosas. De hecho, los grandes modelos de lenguaje (LLM por sus siglas en inglés) son perfectamente capaces de adaptar la formalidad del lenguaje que usan, imitar un tono cercano o incluir ejemplos y anécdotas en primera persona.

El resultado es sorprendente: si nos guiamos únicamente por nuestra intuición, los textos generados por IA nos pueden parecer más propios de autores humanos que aquellos realmente redactados por una persona. Peor aún: nuestra capacidad de detección está disminuyendo a medida que los modelos mejoran.

La intuición engaña

Un estudio publicado en Teaching English With Technology lo confirma: la tasa de detección de acierto cayó del 57,7 % con versiones anteriores de ChatGPT a prácticamente el 50 % con versiones más recientes. Eso equivale a lanzar una moneda al aire.

Representación gráfica del aprendizaje de un gran modelo de lenguaje.
Representación esquemática de una red neuronal profunda: desde un único punto de entrada (izquierda), la información se procesa a través de capas sucesivas de nodos hasta producir una salida compleja (derecha). Es la arquitectura que subyace a modelos como ChatGPT o Gemini, diseñados para predecir, en cada paso, el fragmento de texto estadísticamente más probable.
Google DeepMind/Pexels

Rastros que indican el uso de GenAI

Aunque la detección perfecta no es posible, existe un conjunto de patrones lingüísticos que pueden delatar su uso:

  • El exceso de construcciones antitéticas en el uso repetitivo de frases como “No solo X, sino también Y” o “X en lugar de Y” para enfatizar un argumento sin aportar información nueva.

  • La reformulación sucesiva de una misma idea con pequeñas variaciones. Este tinte de aparente profundidad se limita a alargar el texto sin añadir contenido sustancial. En los textos científicos, esta redundancia puede resultar contraproducente.

  • Las listas de tres elementos, como “La técnica mejora la precisión, reduce el error y optimiza el rendimiento”. La estructura tripartita es un recurso clásico de la retórica que sirve para reforzar ciertas ideas, pero su uso reiterado genera un ritmo uniforme, casi mecánico.

  • Expresiones innecesarias como “A continuación se resume…” o “La cuestión es…” son una especie de tic habitual de los sistemas de IA, que hablan sobre el texto en lugar de ir al grano.

  • Los textos generados por IA suelen contener más sustantivos abstractos y menos pronombres, resultando en una prosa innecesariamente densa. Por ejemplo, en lugar de escribir: “El modelo analiza los datos y luego los compara”, la GenAI podría decir: “El modelo realiza el análisis de los datos y la comparación de los resultados”.

  • Mientras los humanos solemos alternar frases cortas y largas de forma natural, la GenAI tiende a producir oraciones de longitud similar, generando un ritmo monótono.

  • La mezcla de fragmentos generados por IA con otros escritos por humanos tiende a producir incoherencias en el uso de mayúsculas, negritas o listas que revelan la autoría mixta y proyectan una imagen de descuido.

Recomendaciones prácticas

¿Qué podemos hacer para que nuestros textos no parezcan escritos por una máquina? Algunos consejos son:

  • Limitar o eliminar las construcciones antitéticas innecesarias.

  • Reducir las repeticiones que no aporten información nueva.

  • Variar la longitud de frases y párrafos.

  • Sustituir los sustantivos repetidos por pronombres cuando no haya ambigüedad.

  • Eliminar el metalenguaje superfluo y evitar las listas con títulos en negrita.

  • Unificar el formato y revisar cuidadosamente la coherencia final, evitando que el texto sea un puzle de estilos por la mezcla de fragmentos generados por GenAI y otros por humanos.

La inteligencia artificial puede ahorrar tiempo en tareas de inteligencia mecánica y facilitar la escritura en una lengua extranjera, ayudar a estructurar ideas o mejorar la claridad gramatical. Pero no podemos usarla como sustituta de la experiencia humana para eximir la responsabilidad del investigador firmante. En la ciencia, la confianza es tan importante como la precisión.

Y esa confianza no la podemos delegar en un algoritmo, cuyo output consiste en generar el texto más probable posible. La IA no puede sustituir a los investigadores, pero sí puede servirles de apoyo valioso. Nuestro reto, pues, es aprender a aprovechar ese apoyo de una manera ética y profesional.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Cómo evitar que los artículos científicos parezcan hechos por una máquina – https://theconversation.com/como-evitar-que-los-articulos-cientificos-parezcan-hechos-por-una-maquina-278681

MIL OSI – Global Reports