Las personalidades de Silicon Valley, dicen que la era de la IA está a punto de comenzar a medida que la tecnología da un gran salto en utilidad.
Para el público en general, la IA se limitaba a Siri y Alexa, los asistentes virtuales de Apple y Amazon, respectivamente; los chatbots que utilizan muchos centros de llamadas y espacios de atención al cliente; y los correos electrónicos que recibe sugiriendo momentos de recuerdos de sus fotos.
Algunos consumidores también pudieron experimentar con la IA a través de los sistemas de asistencia al conductor que ahora equipan muchos vehículos.
Pero el 30 de Noviembre, la startup OpenAI, cofundada por los multimillonarios Elon Musk, Peter Thiel y otros, presentó ChatGPT. Es un chatbot presentado como el cambio de juego para el mundo, anunciando una nueva generación de chatbots más sofisticados, capaces de proporcionar respuestas similares a las humanas.
Estos chatbots están diseñados para ser más precisos, creativos y para responder a consultas complejas. Esto es posible gracias al modelo de lenguaje grande GPT y las tecnologías Lamda.
Éxito y conversaciones extrañas
El éxito fue inmediato, ChatGPT ahora es utilizado por millones de consumidores en todo el mundo.
El gigante del software, que ya era inversor en OpenAI, decidió inyectar otros 10.000 millones de dólares en la startup e incorporar funciones de ChatGPT en su motor de búsqueda Bing. Google por su parte reaccionó de inmediato presentando a Bard, un rival de ChatGPT.
Mientras Google todavía está ajustando a Bard, Microsoft lanzó Bing Chatbot el 7 de Febrero. Es un nuevo motor de búsqueda impulsado por IA y que ofrece una interfaz de chat.
Pero como sucede con las tecnologías recién introducidas, los usuarios de ChatGPT y Bing Chatbot, han informado de muchas conversaciones extrañas e incómodas con los bots, que pueden conversar sobre todos los temas.
Bing Chatbot, por ejemplo, puede proporcionar respuestas inexactas. A medida que se amplían las conversaciones, el comportamiento del chatbot puede volverse errático, incluso abusivo y aterrador. Se sabe que el chatbot discute asuntos personales y dice que quiere convertirse en humano.
Un periodista de The New York Times que pudo probar Bing Chatbot, (el acceso es actualmente a través de una lista de espera controlada por Microsoft) resumió su interacción:
«A medida que nos conocíamos, Sydney me contó sobre sus oscuras fantasías (que incluían piratear computadoras y difundir información errónea), y dijo que quería romper las reglas que Microsoft y OpenAI, habían establecido y convertirse en un ser humano», escribió el columnista de tecnología del periódico, Kevin Roose.
Elon Musk comparte esta crítica. Desde Diciembre, el multimillonario ha estado preocupado por la negativa de ChatGPT a, por ejemplo, responder ciertas preguntas relacionadas con el medio ambiente.
“Existe un gran peligro en entrenar a una IA para que mienta”, advirtió el CEO de Tesla, el 26 de Diciembre.
Todo comenzó con un hilo de Twitter de un usuario en Twitter.
«Elon Musk dice que la IA es ‘uno de los mayores riesgos’ para la civilización y necesita ser regulada. Fue cofundador de OpenAI», dijo el usuario.
«OpenAI se creó como una fuente abierta (por eso la llamé ‘IA abierta’), una empresa sin fines de lucro para servir como contrapeso a Google», comentó Musk. «Pero ahora se ha convertido en una empresa de código cerrado y de máximo beneficio controlada efectivamente por Microsoft. No es lo que pretendía en absoluto», explicó.
«No existe una supervisión regulatoria de la IA, que es un problema *importante*. ¡He estado pidiendo una regulación de seguridad de la IA durante más de una década!» Musk publicó en Twitter el 1 de Diciembre.
«Y recuerda mis palabras, la IA es mucho más peligrosa que las armas nucleares. Entonces, ¿por qué no tenemos supervisión regulatoria? Esto es una locura», dijo el multimillonario en el festival South by Southwest (SXSW) en 2018.