Cuales son ChatGpt reglas y normas
Inteligencia artificial: ChatGPT fomenta el debate sobre las reglas y normas
El surgimiento del inquietantemente humano interlocutor virtual de “chat”, el chatbot, ha alimentado la discusión sobre qué ChatGpt reglas y normas se necesitan para la inteligencia artificial y quién puede establecerlas.
¿Quién debería escribir las reglas para la era de la inteligencia artificial? Si uno de los sistemas de inteligencia artificial más famosos de la actualidad, ChatGPT, le hace esa pregunta, le dirá que es… bueno, es complicado: “Hay muchos puntos de vista diferentes sobre esa pregunta”, responde el chatbot desarrollado por la empresa de tecnología de San Francisco. OpenAI.
“Como modelo de lenguaje de IA, no tengo opiniones, creencias ni prejuicios personales”, responde ChatGPT. Pero el esfuerzo, agrega, debería “incluir aportes de una amplia gama de partes interesadas, incluidos expertos en el campo de la inteligencia artificial, representantes de otros campos relevantes como derecho, ética y política, comunidades interesadas, sociedad civil y gobierno”.
Lilien Edwards, profesora de derecho, innovación y sociedad en la Universidad de Newcastle, dijo que “no está de acuerdo” con la evaluación de los chatbots. “Pero agregaría que las reglas deberían ser vinculantes”.
En pocos meses, ChatGPT se ha convertido en el representante más destacado de la nueva generación de sistemas de inteligencia artificial “generativos”. Otros se llaman LaMDA, DALL-E o Stable Diffusion. Los programas producen textos, códigos, imágenes o incluso videos fundamentalmente nuevos. Los resultados son tan convincentes que a menudo es imposible saber si fueron creados por el hombre o por una máquina.
Se espera que la inteligencia artificial generativa revolucione la forma en que las personas trabajan o buscan información en línea. Pero también existía el temor de que millones de personas pudieran perder sus trabajos o que el sistema pudiera ser mal utilizado para desinformar. Esto provocó un debate sobre las reglas necesarias.
“Necesitamos regulación”, dice el profesor Edwards. Esto significaría la implementación de la legislación existente y la redacción de nuevas leyes para la inteligencia artificial. Al mismo tiempo, señala que programas como ChatGPT dominan los titulares, pero “no son solo algo en línea que está sucediendo dentro de la inteligencia artificial. Existe un peligro real de que ahoguen nuestra voz al dominar la conversación”.
El auge de la IA y necesidad de Chatgpt normas y reglas
La investigación de la inteligencia artificial comenzó en la década de 1950, pero fue solo a principios de la última década que los ingenieros comenzaron a incorporar la inteligencia artificial en las aplicaciones cotidianas. En los últimos años, los sistemas han mejorado cada vez más en la creación de contenido nuevo.
Sin embargo, esos avances pasaron desapercibidos para el público hasta fines de noviembre de 2022, cuando OpenAI presentó un prototipo de ChatGPT. Es fácil de usar, todo lo que tiene que hacer es ingresar una solicitud. Solicite un resumen al estilo de un niño de catorce años del Fausto de Johann Wolfgang Goethe, por ejemplo, y el chatbot escupirá un texto que suena como si hubiera sido escrito por un adolescente. Pídale al sistema que escriba el mismo texto al estilo de Aldous Huxley y lo obtendrá al estilo de la prosa del siglo XX. Se puede acceder directamente a Chatbot ChatGPT y la aplicación es muy fácil de usar
Entonces, por primera vez, una herramienta sofisticada de inteligencia artificial estuvo disponible en un sitio gratuito, alimentando un debate sobre lo que podría significar el auge de la inteligencia artificial generativa para la creatividad humana. Los profesores lloraron la “muerte del ensayo universitario”. El periódico ha anunciado que utilizará un software para ayudar a sus reporteros a escribir noticias.
Joanna Bryson, profesora de ética y tecnología en la Hertie School privada de Berlín, enfatizó la importancia de crear conciencia sobre cómo funcionan los sistemas de inteligencia artificial, por ejemplo, incluyéndolos en los planes de estudios escolares, para ayudar a las personas a desarrollar una comprensión de cómo interactúan con la tecnología que parece que es humano, pero no lo es. “Me gustaría ver a los niños aprenderlo en la escuela y luego ir a casa y contárselo a sus padres”
La ministra de Educación de Renania del Norte-Westfalia, Dorote Feller, anunció que está planificando medidas concretas. El ministerio no tiene en mente prohibir la inteligencia artificial en las escuelas, pero está trabajando en una guía para que los maestros adopten una “visión crítica constructiva” de las posibilidades de dicho software para la enseñanza.
¿Esto es la ciencia ficción?
Sin embargo, la euforia inicial se agrió cuando, en febrero, el gigante tecnológico estadounidense Microsoft anunció que había equipado su navegador Bing con una versión avanzada de ChatGPT y permitió que un grupo de probadores probara con él. Poco después, publicaron imágenes de un diálogo aterrador en el que el chatbot se volvió combativo, se llamó a sí mismo “Sydney” o expresó su deseo de ser humano.
Los expertos se apresuraron a explicar que un chatbot no es capaz de mostrar emociones. En cambio, esta tecnología aplica el análisis de grandes cantidades de texto. Esto hace que el sistema sea increíblemente bueno para adivinar qué palabra debe seguir a la anterior. Lo hace tan bien que suena como un ser humano emocional.
Sin embargo, los hechos causaron indignación pública en las redes sociales. La profesora de ética Joanna Bryson dice que la gente se ha dado cuenta de que cada vez es más difícil distinguir a los seres humanos de las creaciones de los sistemas de inteligencia artificial. Esa experiencia es “algo completamente nuevo”. Y, sin embargo, cree que “las reglas que llevamos recomendando desde hace una década siguen siendo suficientes”.
Desde mediados de la década pasada, cientos de instituciones, desde los gigantes tecnológicos del mundo hasta la Iglesia Católica u organizaciones internacionales como las Naciones Unidas, han publicado pautas no vinculantes sobre cómo desarrollar y utilizar la inteligencia artificial de manera responsable. Esos textos fueron probablemente las fuentes que utilizó ChatGPT para sacar las conclusiones citadas al principio del artículo. Pero a medida que la tecnología avanza rápidamente, ahora existe el consenso de que las pautas voluntarias por sí solas no serán suficientes, dice la abogada Lillian Edwards.
Los gobiernos de todo el mundo han estado trabajando en la legislación durante años. Una revisión de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) enumera las iniciativas políticas en más de 65 países, desde Argentina hasta Uzbekistán. Sin embargo, solo unos pocos han obedecido hasta ahora las estrictas leyes. China es una notable excepción, ya que el año pasado anunció una ley sobre inteligencia artificial.
En Occidente, todos los ojos están puestos en la UE. La Unión Europea, que a menudo se considera líder en regulación, comenzó a trabajar en la “Ley de Inteligencia Artificial” en 2018. Cinco años después, las instituciones de la Unión van a iniciar el debate final. Esto podría dar lugar a una obligación legal para las empresas de informar a los clientes cada vez que estén hablando con un software como ChatGPT.
“No estamos lejos de las herramientas potencialmente más aterradoras”
Expertos como Edwards advierten, sin embargo, que la inteligencia generativa es solo la punta del iceberg. Las empresas y las instituciones públicas hace tiempo que comenzaron a utilizar tecnología de aprendizaje automático similar para automatizar decisiones en otras áreas, desde la vigilancia hasta la justicia penal, donde el riesgo de daños permanentes es aún mayor.
Curiosamente, el propio CEO de la empresa que creó ChatGPT emitió una advertencia similar. Sam Altman de OpenAI tuiteó a mediados de febrero: “Si bien las herramientas de IA de la generación actual no dan mucho miedo, creo que probablemente no estemos tan lejos de ser potencialmente más aterradores”.
En la Unión Europea, la próxima regulación sobre inteligencia artificial incluirá reglas particularmente estrictas para las “aplicaciones de alto riesgo”, para garantizar, entre otras cosas, que la inteligencia artificial no discrimine a las minorías vulnerables. Los funcionarios en Bruselas esperan que las leyes de la UE se conviertan en el “estándar de oro” para la regulación de la inteligencia artificial y que los gobiernos de todo el mundo las copien.