Ex ingenieros de Oracle y Google recaudan 7 millones de dólares de Accel

Lineaje gana contrato con el Departamento de la Fuerza Aérea de Estados Unidos

PRESIONE SOLTAR

17 de octubre de 2024: Se espera que OpenAI genere más de 10 mil millones de dólares en ingresos el próximo año, una clara señal de que la adopción de la IA generativa se está acelerando. Sin embargo, la mayoría de las empresas luchan por implementar grandes modelos de IA en producción. Dados los altos costos y la complejidad que implican, se estima que casi el 90% de los proyectos de aprendizaje automático nunca llegarán a producción. Para abordar este problema apremiante, Simplismart anuncia hoy una ronda de financiación de 7 millones de dólares para su infraestructura que permite a las organizaciones implementar modelos de IA sin problemas. De manera similar al cambio a la computación en la nube, que se basó en herramientas como Terraform y el desarrollo de aplicaciones móviles con Android, Simplismart se está posicionando como el facilitador crítico de la transición de la IA a las operaciones empresariales tradicionales.
La ronda de financiación Serie A fue dirigida por Accel con la participación de Shastra VC, Titan Capital e inversores ángeles líderes, incluido Akshay Kothari, cofundador de Notion. Este tramo, más de diez veces mayor que la ronda anterior, impulsará la I+D y el crecimiento de su plataforma de orquestación MLOps centrada en la empresa.
La empresa fue cofundada en 2022 por Amritanshu Jain, quien abordó los desafíos de la infraestructura de la nube en Oracle Cloud, y Devansh Ghatak, quien perfeccionó su experiencia en algoritmos de búsqueda en Google Search. En sólo dos años, con una financiación inicial inferior a 1 millón de dólares, Simplismart ha superado referencias públicas creando el motor de inferencia más rápido del mundo. Este motor permite a las organizaciones ejecutar modelos de aprendizaje automático a una velocidad vertiginosa, lo que aumenta significativamente el rendimiento y reduce los costos.
El rápido motor de inferencia de Simplismart permite a los usuarios aprovechar el rendimiento optimizado para todas las implementaciones de sus modelos. Por ejemplo, su optimización a nivel de software permite ejecutar Llama3.1 (8B) a un rendimiento impresionante de >440 tokens por segundo. Si bien la mayoría de los competidores se centran en optimizaciones de hardware o computación en la nube, Simplismart ha diseñado este avance en velocidad en una plataforma MLOps integral diseñada para implementaciones empresariales locales, independientemente de la elección del modelo y la plataforma en la nube.
“La creación de aplicaciones generativas de IA es una necesidad esencial para las empresas de hoy. Sin embargo, la adopción de la IA generativa va muy por detrás del ritmo de los nuevos desarrollos. De hecho, las empresas se enfrentan a cuatro obstáculos: la falta de flujos de trabajo estandarizados, los altos costos que conducen a un bajo retorno de la inversión, la privacidad de los datos y la necesidad de controlar y personalizar el sistema para evitar el tiempo de inactividad y las limitaciones de otros servicios «, dijo Amritanshu Jain, cofundador y director ejecutivo de Simplismart
La plataforma Simplismart proporciona a las organizaciones un lenguaje declarativo (similar a Terraform) que simplifica el ajuste, la implementación y el monitoreo de modelos genAI a gran escala. Las API de terceros a menudo plantean preocupaciones sobre la seguridad de los datos, los límites de rendimiento y la falta total de flexibilidad, mientras que la implementación interna de la IA conlleva su propio conjunto de obstáculos: acceso a la potencia informática, modelos de optimización, escalamiento de la infraestructura, canales de CI/CD, y rentabilidad, todo lo cual requiere ingenieros de aprendizaje automático altamente capacitados. La plataforma MLOps de extremo a extremo de Simplismart estandariza estos flujos de trabajo de orquestación, lo que permite a los equipos centrarse en las necesidades principales de sus productos en lugar de dedicar muchas horas de trabajo a construir esta infraestructura.
Amritanshu Jain agregó: “Hasta ahora, las empresas podían aprovechar las capacidades disponibles en el mercado para orquestar sus cargas de trabajo MLOps porque la cantidad de cargas de trabajo, ya sea el tamaño de los datos, el modelo o el cálculo requerido, era baja. A medida que los modelos se expandan y aumente la carga de trabajo, será imperativo dominar los flujos de trabajo de orquestación. Cada nueva tecnología pasa por el mismo ciclo: exactamente lo que Terraform hizo para la nube, Android Studio para dispositivos móviles y Databricks/Snowflake para los datos.
“A medida que GenAI atraviesa su momento de explosión cámbrica, los desarrolladores comienzan a darse cuenta de que existen importantes beneficios al personalizar e implementar modelos de código abierto en su infraestructura; desbloquea el control sobre el rendimiento, el costo, la personalización de datos propietarios, la flexibilidad de la pila de backend y altos niveles de privacidad/seguridad”, dijo Anand Daniel, socio de Accel. “Nos alegró ver que el equipo de Simplismart vio esta oportunidad desde el principio, pero lo que nos sorprendió fue cómo su pequeño equipo ya había comenzado a prestar servicios a algunas de las empresas GenAI de más rápido crecimiento en términos de producción. Esto reforzó nuestra creencia de que Simplismart tiene posibilidades de ganar en el enorme pero extremadamente competitivo mercado global de infraestructura de IA.
Resolver los flujos de trabajo de MLOps permitirá que más empresas implementen aplicaciones genAI con más control. Quieren gestionar el equilibrio entre rendimiento y costes según sus necesidades. Simplismart cree que proporcionar a las empresas bloques Lego granulares para ensamblar su motor de inferencia y sus entornos de implementación es fundamental para impulsar la adopción.