En las últimas semanas hemos empezado a escuchar sobre «DeepSeek» una nueva Inteligencia Artificial de código abierto que está revolucionado el mercado de las inteligencias artificiales generativas. No obstante, es imprescindible que conozcamos tanto los retos y oportunidades que estas herramientas nos proporciona, como los peligros en materia de seguridad.
DeepSeek-r1 es un chatbot gratuito que ha sido desarrollado por una empresa China. Esta IA genera texto mediante prompts de la misma forma que haríamos con otras herramientas como CHATGPT, GEMINI, COPILOT, etc
Entre las particularidades que podemos destacar es su capacidad de poder resolver y abordar problemas que le planteamos, de igual modo esta herramienta es un gran aliado para los programadores ya que está especializado en desarrollar Python y Java. Así mismo, otra característica diferenciadora sería su capacidad para mostrar cómo ha llegado a una determinada conclusión por lo que adquiere gran valor para determinados campos como la investigación
Sin embargo, no es capaz de desarrollar imágenes como hacen otros modelos de lenguaje disponibles en el mercado de forma gratuita.
Dichas particularidades han significado una irrupción en el mercado posicionándose como un gran rival ante los grandes competidores como Chatgpt. Del mismo modo, la empresa china ha estado en el punto de mira por las críticas que ha recibido sobre posibles tácticas utilizadas para su desarrollo siendo estas la del “destilado” y problemas serios en materia de seguridad
Destilado, es un proceso en el que un modelo más pequeñito aprende de otro modelo mucho más grande y avanzado. La controversia procede de que esta técnica lo hayan utilizado sin permiso de los modelos de los que aprenden pudiendo generar posibles violaciones de derechos.
En cuanto a los problemas de seguridad podríamos caer ante:
- La creación de malware
- Exposición de información confidencias
- Compartición de datos de usuarios con terceros
- Fallos y vulnerabilidad en el chatbot
En profesiones del ámbito social (en mi caso como Trabajadora Social) debemos ser conscientes de que manejamos datos confidenciales y sensibles (historiales médicos, informes sociales…). Si una Inteligencia Artificial con acceso a esta información tiene brechas de seguridad o usa servidores no protegidos se corre el riesgo de que los datos sean robados o expuestos, poniendo en peligro la seguridad de las personas atendidas.
De este modo, si esta Inteligencia Artificial realmente ha sido creada mediante la técnica de destilación sin saber el origen de las IAs de las que se ha basado, podrían haber aprendido sobre datos sesgados y discriminatorios.
Desde Estela Social quiero hacer inciso en que Es IMPRESCINDIBLE utilizar la Inteligencia Artificial bajo un marco ÉTICO y PROFESIONAL donde la SUPERVISIÓN humana sea primordial. Al fin de conseguir un uso responsable debemos aplicar constantes auditorías para detectar sesgos y poder corregirlos.
¿Te gustaría conocer más sobre las últimas novedades en tecnología y su relación con el Trabajo Social? ¡No te pierdas las próximas entradas de Estela Social y descubre nuevos conocimientos que pueden ayudar en tu labor profesional!