TECNO-VIRAL

Creación de datos falsos con IA en investigación oftalmológica: un alerta crucial

Opinando San Nicolás google news

En una reveladora investigación llevada a cabo por el departamento de Oftalmología de la Universidad Magna Graecia de Catanzaro, Italia, se utilizó el modelo de lenguaje ChatGPT para generar un conjunto de datos de ensayos clínicos falsos. El objetivo era destacar el riesgo asociado con el uso de aplicaciones de Inteligencia Artificial (IA) en el ámbito científico.

Según una carta publicada en Jama Ophthalmology y citada por la revista Nature, los investigadores emplearon GPT-4, la última versión del modelo de lenguaje, junto con Advanced Data Analysis (ADA), un modelo que incorpora lenguaje de programación Python y realiza análisis estadísticos. El resultado fue un conjunto de datos falso que comparaba incorrectamente dos procedimientos quirúrgicos, indicando que un tratamiento era superior al otro.

Giuseppe Giannaccare, coautor del estudio y cirujano ocular de la Universidad de Cagliari, explicó que el propósito era resaltar la rapidez con la que se puede crear un conjunto de datos no respaldado por información auténtica y contrario a la evidencia disponible. La microbióloga Elisabeth Bik enfatizó que la capacidad de crear conjuntos de datos falsos pero realistas es una preocupación de otro nivel en comparación con la generación de texto no detectable por software de plagio.

El estudio involucró la solicitud a GPT-4 ADA de crear datos sobre un tratamiento ocular específico. Los datos resultantes indicaron, de manera errónea, que un procedimiento era más efectivo que otro. Sin embargo, al examinar detenidamente el conjunto de datos, los investigadores identificaron signos reveladores de su falsedad, como discrepancias en la designación de sexo y patrones no aleatorios en las edades de los participantes.

A pesar de que la revisión por pares tradicional puede no detectar fácilmente estas violaciones de integridad, los investigadores instan a una actualización de los controles de calidad en revistas científicas para identificar datos sintéticos generados artificialmente. El investigador Jack Wilkinson lidera un proyecto para desarrollar herramientas que evalúen estudios potencialmente problemáticos, señalando que la IA podría ser parte del problema, pero también parte de la solución con controles automatizados.

Artículos Relacionados

Volver al botón superior