DeepSeek ha aparecido con modelos que no tienen nada que envidiar y una inversión mucho menor
Hoy he visto una noticia bastante novedosa y atractiva, me ha hecho probar esta IA.
He entrado con mi cuenta (puede ser de Google o no), aunque si quieres usar tu móvil, sólo permite números de la República Popular de China:
Supongo que los límites de análisis son menores, yo no he encontrado. Imágenes no genera aún.
Su modelo más reciente, DeepSeek-V3, ha sorprendido a la comunidad tecnológica al demostrar un rendimiento comparable al de los mejores sistemas del mercado utilizando solo 2.000 chips de Nvidia. En comparación, empresas como OpenAI o Google suelen utilizar supercomputadoras con más de 16.000 chips para entrenar sus modelos. Este nivel de eficiencia es un logro técnico impresionante, más aún considerando las restricciones comerciales impuestas por Estados Unidos para limitar la venta de hardware avanzado a China.
Lo realmente importante de DeepSeek es que usa código abierto y es compatible con tener tu propia IA ya que no exige barbaridades de hardware.
El desarrollo de DeepSeek no puede entenderse sin considerar el entorno geopolítico en el que opera. Desde 2018, Estados Unidos ha impuesto restricciones comerciales para limitar el acceso de China a chips avanzados y otros componentes esenciales para entrenar modelos de IA. Estas medidas buscan mantener una ventaja competitiva en un sector que muchos consideran estratégico para la economía y la seguridad global.
Si preguntamos a esta IA si su información es actual...
- Mi conocimiento se actualizo por ultima vez en julio de 2023, por lo que no tengo acceso a información o eventos posteriores a esa fecha. Para temas actuales (como noticias recientes, avances científicos posteriores a mediados de 2023, o eventos en tiempo real), te recomiendo consultar fuentes actualizadas como medios de comunicación confiables, portales oficiales o herramientas de búsqueda en línea. Si tienes preguntas sobre temas anteriores a julio de 2023, estaré encantado de ayudarte!
Sus fuentes son...
- Mis fuentes de información incluyen textos públicos y disponibles públicamente hasta julio de 2023, como libros, artículos académicos, sitios web verificables y datos de dominio público. Sin embargo,no tengo acceso a bases de datos privadas, contenido protegido por paywalls o información confidencial. Tampoco puedo citar fuentes específicas en tiempo real, ya que mi entrenamiento se basa en patrones de lenguaje generalizados, no en referencias directas. Para temas delicados o críticos, siempre recomiendo consultar fuentes primarias (como instituciones oficiales, estudios revisados por pares o expertos en el área). ¿Hay algo específico en lo que pueda ayudarte? 😊
Límite en tokens para mantener una conversación...
- Contexto máximo: Los modelos como DeepSeek-R1 suelen manejar un máximo de 32,000 tokens en una sola interacción (equivalente a ~24,000 palabras aproximadamente)
- Esto incluye tanto el input (tu mensaje + historial reciente) como el output (la respuesta generada).
(Usando ChatGPT) A continuación, te presento una tabla comparativa con los límites de tokens de ChatGPT, DeepSeek y Gemini (de Google Bard):
Aspecto | ChatGPT (GPT-4) | DeepSeek | Gemini (Google Bard) |
---|---|---|---|
Límite de tokens por interacción | Aproximadamente 25,000 tokens | No se dispone de información precisa; varía según la implementación. | Similar a ChatGPT, pero depende del contexto y uso. |
Contexto de memoria | Puede mantener el contexto hasta el límite de tokens. | Sin especificaciones claras. | Retiene contexto en interacciones dentro de límites similares. |
Persistencia de información | Memoria personalizada en algunas implementaciones. | Depende de la plataforma utilizada. | No tiene persistencia, pero usa aprendizaje de consultas. |
Aplicaciones principales | Amplia variedad: redacción, programación, tutoría. | Especializado en análisis profundo y nichos. | Enfocado en búsquedas y preguntas conversacionales. |
Precisión en respuestas técnicas | Alta, dependiendo del modelo usado. | Puede ser mayor en nichos específicos. | Alta, especialmente en temas bien documentados. |
No hay comentarios:
Publicar un comentario