La compañía de inteligencia artificial OpenAI presentó esta semana GPT-4, la última encarnación del modelo de lenguaje grande que impulsa su popular bot de chat ChatGPT. La compañía dice que GPT-4 contiene grandes mejoras: ya ha sorprendido a las personas con su capacidad para crear texto similar al humano y generar imágenes y código de computadora desde casi cualquier mensaje. Los investigadores dicen que estas habilidades tienen el potencial de transformar la ciencia.
A pesar de la emoción generada por GPT-4, algunos científicos se sienten frustrados porque aún no pueden acceder a la tecnología, su código subyacente o información sobre cómo se entrenó. Esto genera preocupación sobre la seguridad de la tecnología y la hace menos útil para la investigación, dicen los científicos.
GPT-4: habilidades mejoradas en manejo de imágenes y texto
Una actualización de GPT-4, lanzada el 14 de marzo, es que ahora puede manejar imágenes y texto. Y como demostración de su destreza lingüística, Open AI, con sede en San Francisco, California, dice que aprobó el examen legal de la barra de EE. UU. con resultados en el percentil noventa, en comparación con el percentil décimo de la versión anterior de ChatGPT.
Aunque la tecnología aún no es ampliamente accesible, algunos científicos que han tenido acceso a ella han quedado impresionados con sus capacidades. Por ejemplo, se ha demostrado que GPT-4 puede producir el código de computadora necesario para construir un sitio web a partir de un garabato dibujado a mano, lo que demuestra su capacidad para manejar imágenes como entradas.
Preocupaciones sobre la falta de acceso a los datos y al código subyacente de GPT-4
A pesar del entusiasmo por GPT-4, algunos científicos están preocupados por el secreto detrás de su tecnología y cómo se entrenó el modelo. La falta de acceso a los datos utilizados para la capacitación del modelo y la información sobre su funcionamiento plantea preocupaciones de seguridad y limita su utilidad para la investigación científica. Además, la falta de acceso a los datos utilizados para la capacitación del modelo y la información sobre su funcionamiento también plantea preocupaciones éticas, como el posible sesgo del modelo y su impacto en la sociedad.
La importancia de desarrollar pautas ‘vivas’ para gobernar el desarrollo y uso de la IA
La necesidad urgente de desarrollar un conjunto de pautas ‘vivas’ para gobernar cómo se usan y desarrollan la IA y las herramientas como GPT-4 es una preocupación compartida por algunos científicos. Se convocó una cumbre por invitación en la Universidad de Amsterdam el 11 de abril para discutir estas preocupaciones, con representantes de organizaciones como el comité de ciencia y ética de la UNESCO, la Organización para la Cooperación y el Desarrollo Económicos y el Foro Económico Mundial.
El impacto de GPT-4 en la ciencia y la infraestructura científica
A pesar de las preocupaciones, GPT-4 y sus futuras iteraciones tienen el potencial de transformar la ciencia y la infraestructura científica. Los científicos están entusiasmados con la posibilidad de conectar documentos, programas de datos, bibliotecas y trabajo computacional o incluso experimentos robóticos, lo que podría acelerar los procesos científicos y hacer posible nuevas formas de investigación y descubrimiento.
Sin embargo, la falta de acceso a la tecnología y la información sobre su funcionamiento limitan su utilidad para la investigación y el progreso científico en general. La colaboración entre los científicos y las grandes empresas tecnológicas que poseen la tecnología también plantea preocupaciones éticas y de transparencia.
En resumen, GPT-4 es una emocionante nueva tecnología con el potencial de transformar la ciencia, pero su falta de accesibilidad y transparencia genera preocupaciones y limitaciones para su utilidad. Es importante desarrollar pautas éticas y de gobernanza para la IA y sus herramientas, como GPT-4, para garantizar un uso responsable y beneficioso para la sociedad y la ciencia en general.
Fuente: NATURE