El repositorio de investigación ArXiv prohibirá a los autores durante un año si dejan que la IA haga todo el trabajo


ArXivun repositorio abierto ampliamente utilizado para la investigación preimpresa, está haciendo mayores esfuerzos para acabar con el uso descuidado de grandes modelos de lenguaje en artículos científicos.

Aunque los artículos se publican en el sitio antes de ser revisados ​​por pares, arXiv (pronunciado “archivo”) se ha convertido en una de las principales formas de difundir investigaciones en campos como la informática y las matemáticas, y el sitio en sí se ha convertido en una fuente de datos sobre tendencias de investigación científica.

ArXiv ha tomado medidas para combatir el creciente número de artículos de baja calidad generados por la IA, por ejemplo exigiendo que quienes publican por primera vez obtener apoyo de autores establecidos. Y después de haber estado alojada en Cornell durante más de 20 años, se convirtió en una organización independiente sin fines de lucro, lo que debería permitirle Recaudar más dinero para abordar problemas como el agua sucia..

En su último movimiento, Thomas Dietterich, jefe de la sección de informática de arXiv, al corriente Jueves que “si una presentación contiene evidencia irrefutable de que los autores no verificaron los resultados de la generación del LLM, esto significa que no podemos tener ninguna confianza en el artículo”.

Esa evidencia innegable podría incluir cosas como “referencias alucinatorias” y comentarios hacia o desde LLM, dijo Dietterich. Si se encuentra dicha evidencia, los autores del artículo enfrentarían “una prohibición de un año de arXiv seguida del requisito de que los envíos posteriores de arXiv deben ser aceptados primero por un lugar de revisión por pares acreditado”.

Tenga en cuenta que esto no es una prohibición absoluta contra el uso de LLM, sino más bien una insistencia en que, como dice Dietterich, los autores asuman “plena responsabilidad” por el contenido, “independientemente de cómo fue creado”. Entonces, si los investigadores copian y pegan “lenguaje inapropiado, contenido plagiado, contenido sesgado, errores, referencias incorrectas o contenido engañoso” directamente del LLM, entonces siguen siendo responsables.

dieterich le dijo a 404 Media que esta será una regla de “un solo strike”, pero el moderador debe señalar el problema y el presidente de la sección debe confirmar la evidencia antes de imponer el castigo. Los autores también pueden apelar la decisión.

Una investigación reciente revisada por pares encontró precisamente eso Las citas falsas van en aumento en la investigación biomédica, probablemente debido a los LLM; aunque, para ser justos, los científicos no son los únicos a los que se descubre que utilizan citas generadas por IA.

Cuando compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta nuestra independencia editorial.



Source link