Todos dejamos una huella digital.
Cuando compras con tu tarjeta de crédito. Cuando haces un pedido en una página web. Cuando llamas con tu teléfono. Cuando mandas un correo electrónico a tu familia.
Cuando publicas una foto en una red social. Cuando das un “me gusta” a un post en Linkedin.
Podría seguir así mucho tiempo.
Alucinarías con las pequeñas migas de pan que vamos dejando en nuestra vida digital. Pequeños fragmentos que componen una imagen extremadamente detallada de nuestra personalidad.
Tan detallada que puede generar una imagen de nosotros mismos con mayor profundidad de la que pueden tener tus amigos. Tu familia. Tu pareja.
Ese es el poder de los datos.
Ahora piensa que cada uno de esos microdatos una vez liberados pasan a ser propiedad de un tercero. Un tercero que los almacenará, en la mayoría de los casos, para siempre.
Microdatos con los que entrenar nuevos algoritmos de segmentación. De reconocimiento de imágenes. De personalización.
El uso que tienen estos algoritmos es infinito.
Y lo será cada vez más.
Porque los modelos de IA generativa son auténticos monstruos de devorar información. Necesitan ingentes cantidades de datos nuevos para seguir aprendiendo.
Y en un mundo en el que ya se ha utilizado casi toda información que estaba disponible, y que se está empezando a ver afectado por la generación de contenido vacuo de esos mismos algoritmos, la información de calidad adquiere un nuevo valor. Estamos llegando a un punto en el que la mejora de cada versión de los grandes modelos de lenguaje cuesta cada vez más.
Así que habrá que pensar en nuevas maneras para que sigan aprendiendo.
Una es especializarlos con sets de datos más pequeños orientados al desarrollo de funciones concretas. Datos de mucha calidad que permiten “tunear” esos modelos para hacer tareas específicas.
La clave consiste en pasar de poner el foco en el algoritmo a ponerlo en el dato.
Y no hablo solo de datos personales.
Imagina el valor que tienen los datos de una empresa en la era digital.
El detalle sobre tus clientes. Sobre tus procesos.
Sobre tus productos. La esencia fundamental de la competitividad de tu organización se puede ver comprometida por la capacidad de estos algoritmos. Información muy confidencial puede ser consultada de forma directa. Utilizando lenguaje natural.
¿Demasiado riesgo?
Siempre puedes prohibir su uso. Mandar una circular a todos los trabajadores prohibiendo explícitamente el uso de ChatGPT.
Y, aún así, lo seguirán usando.
Porque la mejora es tal, que es muy difícil no caer en la tentación.
Pregunta en el café de mañana quiénes usan ChatGPT. Pregunta, sobre todo, a los más jóvenes.
Y ahora diles que no lo van a poder usar nunca más.
Bien.
Hay otra opción.
Crear tu propio ChatGPT. Un modelo entrenado con los datos de tu organización. Sin compartirlos con nadie más.
Y dentro de una infraestructura controlada.
Ni Bill Gates, ni Sam Altman tendrán nunca acceso a tus documentos. A tus prompts.
Absolutamente a nada. Porque la privacidad de este enfoque es por diseño.
No se puede compartir nada, si el dato no sale de tus instalaciones.
Y con un modelo “as a service” Algo bastante novedoso para lo que en DECIDATA tenemos experiencia.
Tu veras si quieres seguir compartiendo tu “know-how” con terceros.
Encantado de tener una conversación.
Iñaki Pertusa Socio en DECIDATA

