“Stop GPT”: aviso de Apple sobre el uso interno de ChatGPT

Apple Inc. se ha unido a la liga de corporaciones que prohíben el uso interno de ChatGPT. La ironía es palpable ya que esta decisión coincide con el reciente lanzamiento de OpenAI de un versión de la aplicación móvil de ChatGPT para iOS.

Un documento interno de Apple revisado por una fuente confiable informó a los empleados sobre la prohibición.

El mandato de Apple se alinea con las preocupaciones planteadas por corporaciones como Amazon y bancos líderes como JPMorgan Chase, Bank of America, Citigroup y Deutsche Bank. Estas organizaciones han prohibido ChatGPT y productos similares internamente.

Las aprensiones dependen de la posible fuga de información corporativa sensible. Este problema se ve agravado por los sistemas de inteligencia artificial utilizados para mejorar la competencia de los bots.

ChatGPT no está solo, ni tampoco Apple

La prohibición no se limita a ChatGPT. Apple lo ha extendido a Copilot, el robot de codificación de GitHub. Alimentando la fábrica de rumores, este movimiento podría señalar potencialmente la aventura de Apple en el desarrollo de un modelo de lenguaje grande (LLM) patentado. Este modelo potencial puede competir con los gustos de ChatGPT y Google Bard.

Por otro lado, el competidor de Apple, Samsung, ha impuesto y levantado dos veces las prohibiciones de ChatGPT.

Según las fuentes, el personal de Samsung aprovechó ChatGPT para resolver errores en el código fuente. Además, han utilizado la herramienta de IA para transformar las notas de las reuniones en actas. Samsung restableció su prohibición a principios de este mes para evitar episodios similares.

Tales incidentes ilustran el dilema que enfrentan las corporaciones con respecto a los bots LLM. La agencia de espionaje del Reino Unido, GCHQ, ha señalado el riesgo de que estos modelos puedan divulgar inadvertidamente datos comerciales confidenciales si se realizan consultas idénticas.

Además, la agencia advierte que los proveedores de IA podrían revisar las consultas. Esto puede aumentar aún más el riesgo de exponer secretos corporativos.

El acuse de recibo y la respuesta

En particular, OpenAI reconoció un error en la biblioteca Redis-py hace unos meses. El error hizo visibles públicamente partes de las conversaciones de los usuarios con ChatGPT. Este incidente subraya los riesgos potenciales asociados con los chatbots LLM.

ChatGPT advierte al iniciar sesión que ‘nuestros entrenadores de IA pueden revisar las conversaciones’… Los usuarios deben tener cero expectativas de privacidad cuando usan la demostración web de ChatGPT.Vlad Tushkanov, científico principal de datos de Kaspersky

OpenAI lanzó recientemente una nueva función para deshabilitar el historial de chat. Este lanzamiento aparentemente indica el esfuerzo de la organización para manejar las preocupaciones de privacidad de manera más eficiente.

Se espera que la nueva función evite que las conversaciones se utilicen para entrenar sus modelos. Sin embargo, IA abierta conservará las conversaciones durante 30 días. Durante este período, la empresa puede revisarlos para escanear y monitorear abusos.

Además, OpenAI anunció planes para introducir una versión empresarial de ChatGPT. Es probable que permita a las empresas disfrutar de un mayor control sobre su uso de datos.

Aunque OpenAI está desarrollando varias medidas nuevas para garantizar la seguridad de los datos, las organizaciones gigantes quizás no estén satisfechas con su esfuerzo.

Al menos, el movimiento reciente de Apple apunta a este hecho de manera destacada.

Con la creciente popularidad de la IA, también se están amplificando los problemas relacionados con la privacidad, la seguridad de los datos y el uso ético. Esto subraya la necesidad de emplear medidas adecuadas para establecer la IA como una alternativa ética y confiable.

Queda por ver qué decide hacer OpenAI para manejar los problemas de seguridad y mejorar la confiabilidad de ChatGPT.

Leer Más