En los últimos meses, he estado leyendo con creciente fascinación la obsesión del segmento tecnológico con aplicaciones de alto perfil como ChatGPT, el ejemplo de las aplicaciones generativas de IA que irrumpieron en escena.
En mis más de 25 años en tecnología, nunca he visto nada que atraiga la atención de una nueva capacidad como Gen AI. Más intrigante no es solo la obsesión, sino el hecho de que muchas empresas de alto perfil han sido sorprendidas por los medios y el interés de los clientes y aún no pueden articular claramente cómo podrán participar en la loca fiebre del oro de la industria.
Igualmente fascinante es cómo la industria espera con gran expectación la supuesta presentación de Apple de sus productos AR/VR en su conferencia WWDC en junio o más adelante en el año. Si bien la mayoría de las empresas con productos AR/VR existentes (me viene a la mente Meta) generalmente temen que un gran competidor como Apple ingrese a la categoría debido a su influencia en la industria y el atractivo de la marca, este puede no ser el caso.
Dejame explicar.
Tibio atractivo de los auriculares MR y VR actuales
El destacado analista Ming-Chi Kuo cree que los inversores, hasta ahora, han exagerado el interés y la demanda genuinos de los consumidores por los cascos de realidad virtual y de realidad mixta. La entrada de Apple en el espacio AR y VR podría cambiar eso.
Recientemente, Kuo escribió que es posible que los consumidores aún no estén listos para adoptar AR y VR, ya que no hay suficientes pruebas convincentes de que los auriculares de realidad aumentada se conviertan en la última moda en la electrónica de consumo.
En su opinión, los auriculares de realidad mixta de Apple son «quizás la última oportunidad para convencer a los inversores de que el dispositivo de auriculares AR/MR podría tener la oportunidad de convertirse en el próximo producto estrella en la electrónica de consumo».
Kuo no hace esta afirmación sin evidencia, señalando que ha habido una disminución en la fabricación y venta de cascos de realidad virtual en todo el mercado.
Un ejemplo revelador: Sony ha reducido su pronóstico de producción de auriculares PS VR2 en un 20 % para 2023. Además, Meta’s Quest Pro solo entregó 300 000 unidades. Pico, el mayor fabricante de auriculares AR/VR en China, se quedó un 40 % por debajo de sus objetivos de envío en 2022. Estos hechos no caracterizan a los auriculares AR/VR como la corriente principal.
Todos los ojos puestos en la WWDC 2023
En este contexto de mercado no muy emocionante, se rumorea que Apple presentará sus tan esperados auriculares de realidad mixta. Kuo ha declarado públicamente que cree que el dispositivo debutará en el tercer trimestre de este año, aunque muchos otros creen que debutará en la WWDC 2023.
Tim Cook ha expresado repetidamente su apoyo a los auriculares de realidad aumentada de Apple. Sin embargo, a otros ingenieros de Apple, según se informa, les preocupa que la entrada de la empresa en la realidad virtual y aumentada pueda ser un fracaso costoso, ya que es posible que no esté lista para el horario de máxima audiencia desde el punto de vista del modelo de uso relevante.
Desde mi punto de vista, lo que la gente realmente necesita es una buena razón para conseguir uno en lugar de un nuevo y elegante dispositivo de Apple. Después de todo, muchos expertos de la industria creen que Apple anunciará estos nuevos auriculares a precios decididamente «no convencionales», en el rango de $ 3,000 o más. Con ese tipo de precio y una recesión en el horizonte, esos factores podrían ser obstáculos importantes incluso para Apple.
Los juegos de realidad virtual son emocionantes para algunos jugadores acérrimos, pero los juegos casuales tienen una participación de mercado considerablemente mayor y no requieren auriculares. Las empresas pueden absorber puntos de precio más altos ya que los auriculares AR/VR tienen modelos de uso convincentes en las operaciones, el almacenamiento y los espacios médicos, pero los volúmenes no son enormes.
Las películas son interesantes, pero ¿a cuántas personas les gusta interactuar mientras miran televisión en lugar de estar encerradas en su pequeño cine privado? Me disculpo por mi bostezo.
Este último punto me lleva de vuelta a Apple.
Experiencia inmersiva de FaceTime
Predigo que Apple ha estado esperando para desarrollar un modelo de uso generalizado que atraiga a una amplia audiencia, independientemente de los puntos de precio. Creo que será algún tipo de implementación AR/VR de FaceTime.
FaceTime revolucionó las videollamadas entre pares y las sacó del ámbito de algo en lo que solo los entusiastas de la tecnología o la TI participarían en algo tan informal que una abuela ahora no lo piensa dos veces.

FaceTime en macOS (Crédito de la imagen: Apple)
Sí, los puntos de precio para estos nuevos auriculares de Apple serán altos, ya que el hardware premium que se necesitará es crucial para evitar la experiencia de un aficionado, pero Apple apuntará hacia el futuro, y esos puntos de precio bajarán rápidamente a medida que el mercado aumente.
Si Apple puede generar una experiencia inmersiva de FaceTime que permita a un usuario con un auricular Apple percibir que se encuentra en la ubicación real en la que se encuentra otro usuario o usuarios, será un cambio de juego como ningún otro. Entonces, en ese sentido, el espacio AR/VR necesita que Apple tenga éxito. Como dice el refrán, la marea alta afecta a todos los barcos, y la industria lo sabe.
La IA generativa es la ‘fiebre del oro’ actual
Para decirlo suavemente, los inversores, la industria de la tecnología y el público en general han adoptado la IA generativa de formas que nunca antes había visto. Sin embargo, creo que están ignorando un riesgo crucial.
El mundo de la tecnología se volvió loco cuando ChatGPT se lanzó en noviembre pasado y permitió a los usuarios hacer preguntas a un chatbot y recibir respuestas generadas por IA.
Según muchos líderes de opinión, la nueva tecnología tiene el potencial de cambiar las industrias, incluidos los medios y la atención médica (recientemente aprobó las tres partes del Examen de Licencias Médicas de EE. UU.). Incluso HAL de “2001: A Space Odyssey” quedaría impresionado.
Para implementar rápidamente la tecnología en todo el mundo, Microsoft ya ha comprometido miles de millones de dólares en su relación con el creador de la tecnología, OpenAI, y comenzó a integrar esta capacidad en su motor de búsqueda Bing.
Sin duda, los ejecutivos esperan que esto permita a Microsoft alcanzar al líder del mercado, Google, en búsquedas, donde se ha quedado rezagado. Irónicamente, Google ha tenido su serie de contratiempos generativos de IA con un despliegue menos que estelar de su capacidad Bard.
ChatGPT ha sido el ejemplo destacado de lo que es capaz de hacer la IA generativa, aunque no es el único. Cuando se le proporciona un conjunto de datos de entrenamiento, la IA generativa puede producir nuevos datos basados en él, como imágenes, sonidos o texto, en el caso de un chatbot.
Se puede reconocer un valor significativo ya que los modelos generativos de IA pueden producir resultados mucho más rápido que las personas. Considere, por ejemplo, un entorno donde la inteligencia artificial (IA) crea nuevos paisajes y personas complejos sin la ayuda de la vista humana.
IA de caja negra
Sin embargo, no todas las circunstancias o sectores son adecuados para la IA generativa. Puede proporcionar resultados atractivos y prácticos para juegos, videos, fotos e incluso poemas. Sin embargo, puede ser peligroso cuando se trabaja con sistemas de misión crítica, en escenarios donde los errores son costosos, amenazan la vida o no queremos sesgos.
Por ejemplo, una institución de atención médica en una región rural con escasos recursos donde la IA se utiliza para mejorar la planificación del diagnóstico y el tratamiento. O imagine una escuela donde un solo instructor utiliza la planificación de lecciones impulsada por IA para personalizar la instrucción para varios alumnos según sus niveles de habilidad específicos.
En estas circunstancias, la IA generativa inicialmente parecería proporcionar valor, pero causaría varios problemas. ¿Cómo podemos estar seguros de que el diagnóstico es correcto? ¿Qué pasa con cualquier prejuicio que pueda estar presente en los recursos didácticos? Esas preguntas son cuestiones críticas que deben abordarse.
Los modelos que utilizan IA generativa se denominan modelos de «caja negra». Como no se da una lógica subyacente, es difícil entender cómo llegaron a sus resultados. Incluso los investigadores experimentados suelen tener problemas para comprender cómo funcionan estos modelos en el interior. Por ejemplo, descubrir qué hace que una IA reconozca con precisión una imagen de una hoja de hierba es un desafío famoso.
Incluso podría tener menos conocimiento de los datos de entrenamiento originales como usuario ocasional de ChatGPT u otro modelo generativo. Si pregunta sobre la fuente de los datos de ChatGPT, solo responderá que fue entrenado en «una variedad variada de datos de Internet». Ese tipo de afirmaciones ambiguas no inspiran altos niveles de confianza.
Peligros de salida producidos por IA
Esta situación puede resultar en ciertas circunstancias peligrosas. No puede comprender por qué un modelo produce predicciones específicas si no puede ver las conexiones y las estructuras internas que el modelo ha aprendido de los datos o determinar qué características de los datos son más importantes para el modelo. Como resultado, las fallas o sesgos fundamentales en el modelo son difíciles de encontrar o corregir.
Me acuerdo de una escena de la famosa película de guerra nuclear accidental «Fail Safe», en la que un ejecutivo de tecnología le dice a un funcionario del gobierno que las computadoras pueden cometer errores sutiles, tan sutiles que ningún ser humano podría desafiar esos resultados en tiempo real, y esa película fue lanzado en 1964!
Los usuarios de Internet han documentado casos a menudo involuntariamente divertidos en los que ChatGPT dio respuestas incorrectas o dudosas, que iban desde perder en el ajedrez hasta producir código Python que decidía quién debía ser torturado.
Asistí a una conferencia reciente de HP en la que un conocido ejecutivo de la industria expresó su apoyo a herramientas como ChatGPT para ayudar con las tareas «tediosas» de realizar revisiones de desempeño de los empleados. Imagine las demandas que surgirían si eso se convirtiera en una práctica habitual.
Ahora, estos son solo los casos en los que la respuesta incorrecta fue evidente. Según algunas estimaciones, aproximadamente el 20 % de las respuestas de ChatGPT son inventadas. Es posible que a medida que avance la tecnología de IA, viviremos en una época en la que los chatbots seguros de sí mismos brindan respuestas que suenan precisas y los humanos no pueden notar la diferencia.
¿Pulsar pausa en IA?
Este comentario no quiere decir que no debamos estar entusiasmados con la IA, pero el mundo debe proceder con prudencia. A pesar del emocionalismo de la prensa que parece aumentar cada vez que Elon Musk comenta algo, no descartemos la reciente carta de la industria que él y otras luminarias de la industria, incluido Steve Wozniak, firmaron pidiendo una «pausa» sobre las nuevas implementaciones de IA.
Desafortunadamente, es poco probable que la mentalidad de la fiebre del oro retrase las cosas sin una directiva gubernamental improbable, y la regulación está a años de distancia. También soy sensible al argumento de que Estados Unidos debe ser el líder en inteligencia artificial por razones de seguridad nacional, en particular a medida que China se convierte en una amenaza mayor.
Sin embargo, debemos ser conscientes de los riesgos y concentrarnos en formas de utilizar estos modelos de IA en entornos del mundo real. Se podrían lograr resultados de IA más positivos mediante el entrenamiento para reducir su alta tasa de respuestas falsas o «alucinaciones».
Sin embargo, la capacitación podría no ser suficiente. En teoría, podríamos crear una situación en la que las herramientas de IA sean recompensadas por brindar resultados que sus jueces humanos perciban como exitosos, por ejemplo, alentándolos a engañarnos deliberadamente simplemente entrenando modelos para generar nuestros resultados preferidos.
Es posible que las cosas empeoren, y las aplicaciones de IA pueden desarrollar modelos sofisticados para evadir la detección, tal vez incluso superando a los humanos, como algunos han predicho. Este escenario podría ser trágico.
Enfoque de caja blanca
Hay otra opción. Algunas empresas pueden emplear modelos como la caja blanca o el aprendizaje automático explicable en lugar de concentrarse en cómo entrenamos modelos generativos de IA.
Un modelo de caja blanca, a diferencia de los modelos de caja negra como la IA generativa, es transparente y facilita la comprensión de cómo el modelo deriva sus predicciones y qué parámetros considera.
Si bien los modelos de caja blanca pueden ser sofisticados con respecto a los algoritmos, son más simples de entender ya que vienen con justificaciones y contexto. Al indicar lo que cree que es la respuesta correcta, una implementación de caja blanca de ChatGPT también puede indicar qué tan seguro está en esa respuesta. Por ejemplo, ¿es 60%, 90% o 100% seguro?
Este enfoque ayudaría a los usuarios a determinar hasta qué punto confiar en las respuestas, si es que hay alguno, y comprender cómo se derivaron. Dicho de otra manera, comprender en qué entradas de datos se basó la respuesta ayudaría a los usuarios a examinar múltiples variaciones de la misma respuesta. Eso es un paso en la dirección correcta.
Por supuesto, esto podría no ser necesario para un diálogo directo con el chatbot. Sin embargo, tener dicho contexto puede ser crítico en situaciones en las que una respuesta falsa puede tener consecuencias graves (me viene a la mente la atención médica).
Este escenario es significativamente menos riesgoso que si un médico basa completamente todos sus juicios en el resultado de un algoritmo secreto si está utilizando IA para hacer diagnósticos pero puede ver qué tan seguro está el programa en su conclusión.
Participación humana
Desde mi punto de vista, la IA sin duda tendrá un impacto significativo en los negocios y la sociedad. Entonces, dejemos que los humanos seleccionen la técnica de IA apropiada para cada circunstancia.
Tener un ser humano como parte del ciclo de cálculo de IA puede parecer extraño, pero podría ser precisamente lo que se necesita para ganarse la confianza, la credibilidad y la responsabilidad de los usuarios.





