Creador de ChatGPT advierte que soporte al cliente telefónico será reemplazado por la inteligencia artificial

0
122


Redacción -El debate sobre el impacto de la inteligencia artificial en el empleo ha cobrado una nueva dimensión tras las recientes declaraciones de Sam Altman, CEO de OpenAI y creador de ChatGPT, quien advirtió que los primeros puestos de trabajo en desaparecer serán aquellos vinculados al soporte al cliente telefónico o informático.

En una entrevista con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya es capaz de desempeñarse “mejor” que los humanos en estas funciones, anticipando un “desplazamiento masivo” en el mercado laboral.

La perspectiva de Altman sobre la transformación del trabajo no se limita a un escenario de pérdida de empleos. Según explicó, la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.

Como caso específico, mencionó el de los programadores, cuya labor ha cambiado radicalmente: ahora pueden generar “mucho más código” y han incrementado su productividad de manera notable.

No obstante, Altman matizó que la velocidad del cambio no necesariamente implicará una alteración drástica en la rotación de empleos a largo plazo. Habló de un “equilibrio puntuado”, sugiriendo que la tasa de reemplazo laboral podría no diferir “dramáticamente” de la histórica.

En contraste, los trabajos que requieren una profunda conexión humana, como los del sector médico, muestran mayor resistencia frente a la automatización. El CEO de OpenAI subrayó la “gran capacidad para adaptarse a las nuevas circunstancias” que ha demostrado la sociedad, citando la respuesta global durante la pandemia de COVID-19.

Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció ante Tucker Carlson que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque su grupo toma “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.

Además, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.

Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el CEO de OpenAI, ilustra la dificultad de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.

En materia de privacidad, Altman propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.

Considera que este resguardo será fundamental en un futuro donde la hiperconectividad y la interacción con la IA sean cotidianas.

Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.

Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.

Ante este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para evitar estafas.





Source link