Opadai
A pesar de que Operai continúa aferrándose a su afirmación de que el único camino hacia el AGI se encuentra a través de gastos financieros y de energía masivos, los investigadores independientes están aprovechando las tecnologías de código abierto para que coincidan con el rendimiento de sus modelos más poderosos, y lo hacen a una fracción del precio.
El viernes pasado, un equipo unificado de la Universidad de Stanford y la Universidad de Washington anunciaron que habían entrenado un modelo de lenguaje grande centrado en matemáticas y codificaciones que realiza, así como los modelos de razonamiento R1 de Opgai’s O1 y Deepseek. Cuesta solo $ 50 en créditos de cómputo en la nube para construir. Según los informes, el equipo utilizó un modelo base listo para usar, luego destiló el modelo experimental Gemini 2.0 Flash Thinking de Google en él. El proceso de destilación de AIS implica extraer la información relevante para completar una tarea específica de un modelo de IA más grande y transferirla a una más pequeña.
Además, el martes, los investigadores de Hugging Face publicaron un competidor para la investigación profunda de Openi y las herramientas de investigación profundas (también) de Google Gemini, denominadas Investigación Open Deep, que desarrollaron en solo 24 horas. “Si bien los poderosos LLM ahora están disponibles gratuitamente en código abierto, OpenAI no reveló mucho sobre el marco de agente subyacente a la investigación profunda”, escribió Hugging Face en su publicación de anuncios. “¡Así que decidimos embarcarse en una misión de 24 horas para reproducir sus resultados y código abierto el marco necesario en el camino!” Según los informes, cuesta aproximadamente $ 20 en créditos de cálculo de la nube, y requeriría menos de 30 minutos, para entrenar.
Subiendo el modelo de Face posteriormente logró una precisión del 55% en el punto de referencia general de asistentes de IA (GAIA), que se utiliza para probar las capacidades de los sistemas de IA agente. En comparación, la investigación profunda de OpenAI obtuvo una precisión entre 67 y 73%, dependiendo de las metodologías de respuesta. De acuerdo, el modelo de 24 horas no funciona tan bien como la oferta de Openai, pero tampoco tomó miles de millones de dólares y la capacidad de generación de energía de una nación europea de tamaño mediano para entrenar.
Estos esfuerzos siguen a las noticias de enero de que un equipo de la Universidad de California, el Laboratorio de Computación Sky de Berkeley, logró capacitar a su modelo de razonamiento Sky T1 por alrededor de $ 450 en créditos de cómputo en la nube. El modelo Sky-T1-32B previa al equipo del equipo demostró ser igual al lanzamiento del modelo de razonamiento de previsión O1 temprano. A medida que surgen más de estos competidores de código abierto para el dominio de la industria de OpenAI, su mera existencia pone en duda si el plan de la compañía de gastar medio billón de dólares para construir centros de datos de IA e instalaciones de producción de energía es realmente la respuesta.