martes, 7 de febrero de 2023

¿Puede un robot ser autor de un artículo científico?

Polémica: ChatGPT aparece como co-autor en trabajos de investigación
Al menos cuatro artículos acreditan a la herramienta de IA como coautor, mientras los editores se esfuerzan por regular su uso.

El chatbot de inteligencia artificial (IA) ChatGPT que ha arrasado en todo el mundo ha hecho su debut formal en la literatura científica, acumulando al menos cuatro créditos de autoría en artículos publicados y preprints.

Los editores de revistas, investigadores y editores ahora están debatiendo el lugar de tales herramientas de IA en la literatura publicada, y si es apropiado citar al bot como autor. Los editores están compitiendo para crear políticas para el chatbot, que fue lanzado como una herramienta de uso gratuito en noviembre por la empresa de tecnología OpenAI en San Francisco, California.

ChatGPT escribe ensayos inteligentes: ¿deberían preocuparse los profesores?

ChatGPT es un modelo de lenguaje (LLM), que genera oraciones convincentes al imitar los patrones estadísticos del lenguaje en una enorme base de datos de texto recopilado de Internet. El bot ya está revolucionando sectores, incluido el académico: en particular, está planteando preguntas sobre el futuro de los ensayos universitarios y la producción de investigación.

Los editores y los servidores de preimpresión contactados por el equipo de noticias de Nature están de acuerdo en que las IA como ChatGPT no cumplen con los criterios para un autor de estudio, porque no pueden asumir la responsabilidad por el contenido y la integridad de los artículos científicos. Pero algunos editores dicen que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores.

En un caso, un editor le dijo a Nature que ChatGPT había sido citado como coautor por error y que la revista lo corregiría.

Autor artificial

ChatGPT es uno de los 12 autores en una preimpresión sobre el uso de la herramienta para la educación médica, publicado en el repositorio médico medRxiv en diciembre del año pasado.

El equipo detrás del repositorio y su sitio hermano, bioRxiv, están discutiendo si es apropiado usar y acreditar herramientas de inteligencia artificial como ChatGPT al escribir estudios, dice el cofundador Richard Sever, director asistente de prensa del Laboratorio Cold Spring Harbor en Nueva York. Las convenciones podrían cambiar, añade.

“Necesitamos distinguir el rol formal de un autor de un manuscrito académico de la noción más general de un autor como escritor de un documento”, dice Sever. Los autores asumen la responsabilidad legal de su trabajo, por lo que solo deben incluirse personas, dice. “Por supuesto, las personas pueden tratar de colarse, esto ya sucedió en medRxiv, al igual que las personas han enumerado mascotas, personas ficticias, etc. como autores en artículos de revistas en el pasado, pero eso es un problema de control más que un problema de política. ” (Victor Tseng, el autor correspondiente de la preimpresión y director médico de Ansible Health en Mountain View, California, no respondió a una solicitud de comentarios).

Un editorial en la revista Nurse Education in Practice este mes acredita a la IA como coautor, junto con Siobhan O'Connor, investigadora de tecnología de la salud en la Universidad de Manchester, Reino Unido. Roger Watson, editor en jefe de la revista, dice que este crédito se deslizó por error y pronto será corregido. “Eso fue un descuido de mi parte”, dice, porque las editoriales pasan por un sistema de gestión diferente al de los artículos de investigación.

Y Alex Zhavoronkov, director ejecutivo de Insilico Medicine, una compañía de descubrimiento de fármacos impulsada por IA en Hong Kong, reconoció a ChatGPT como coautor de un artículo de perspectiva en la revista Oncoscience el mes pasado. Dice que su empresa ha publicado más de 80 artículos producidos por herramientas de IA generativa. “No somos nuevos en este campo”, dice. El último artículo analiza los pros y los contras de tomar la droga rapamicina, en el contexto de un argumento filosófico llamado la apuesta de Pascal. ChatGPT escribió un artículo mucho mejor que las generaciones anteriores de herramientas generativas de IA, dice Zhavoronkov. Él dice que los pares de Oncoscience revisaron este documento después de que le pidió a su editor que lo hiciera. La revista no respondió a la solicitud de comentarios de Nature.

Un cuarto artículo, coescrito por un chatbot anterior llamado GPT-3 y publicado en el servidor de preimpresión francés HAL en junio de 2022, pronto se publicará en una revista revisada por pares, dice la coautora Almira Osmanovic Thunström, neurobióloga de Sahlgrenska. Hospital Universitario de Gotemburgo, Suecia. Ella dice que una revista rechazó el artículo después de la revisión, pero una segunda lo aceptó con GPT-3 como autor después de que ella reescribió el artículo en respuesta a las solicitudes de los revisores.

Políticas del editor

Los editores en jefe de Nature y Science le dijeron al equipo de noticias de Nature que ChatGPT no cumple con el estándar de autoría. “La atribución de autoría conlleva la responsabilidad por el trabajo, que no se puede aplicar efectivamente a los LLM”, dice Magdalena Skipper, editora en jefe de Nature en Londres. Los autores que utilizan LLM de cualquier manera mientras desarrollan un artículo deben documentar su uso en las secciones de métodos o agradecimientos, si corresponde, dice.

“No permitiríamos que AI aparezca como autor en un artículo que publicamos, y el uso de texto generado por AI sin la cita adecuada podría considerarse plagio”, dice Holden Thorp, editor en jefe de la familia de revistas Science en Washington DC.

La editorial Taylor & Francis en Londres está revisando su política, dice la directora de ética e integridad editorial Sabina Alam. Ella acepta que los autores son responsables de la validez e integridad de su trabajo y deben citar cualquier uso de LLM en la sección de agradecimientos. Taylor & Francis aún no ha recibido ninguna presentación que acredite a ChatGPT como coautor.

La junta del servidor de preimpresión de ciencias físicas arXiv ha tenido discusiones internas y está comenzando a converger en un enfoque para el uso de IA generativas, dice el director científico Steinn Sigurdsson, astrónomo de la Universidad Estatal de Pensilvania en University Park. Acepta que una herramienta de software no puede ser autora de un envío, en parte porque no puede aceptar los términos de uso y el derecho a distribuir contenido. Sigurdsson no tiene conocimiento de ningún preprint de arXiv que incluya a ChatGPT como coautor, y dice que pronto habrá orientación para los autores.

La ética de la IA generativa

Ya existen pautas claras de autoría que significan que ChatGPT no debe ser acreditado como coautor, dice Matt Hodgkinson, gerente de integridad de investigación en la Oficina de Integridad de Investigación del Reino Unido en Londres, hablando a título personal. Una pauta es que un coautor debe hacer una "contribución académica significativa" al artículo, lo que podría ser posible con herramientas como ChatGPT, dice. Pero también debe tener la capacidad de aceptar ser coautor y asumir la responsabilidad de un estudio, o, al menos, de la parte en la que contribuyó. “Es realmente esa segunda parte en la que la idea de otorgar la coautoría de una herramienta de IA realmente se topa con un obstáculo”, dice.

Zhavoronkov dice que cuando intentó que ChatGPT escribiera artículos más técnicos que la perspectiva que publicó, fracasó. “Muy a menudo devuelve declaraciones que no son necesariamente ciertas, y si le haces varias veces la misma pregunta, te dará respuestas diferentes”, dice. “Así que definitivamente estaré preocupado por el mal uso del sistema en la academia, porque ahora, las personas sin experiencia en el dominio podrían intentar escribir artículos científicos”.

Fuente: https://www.intramed.net/

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.