Nota del editor: la tecnología de inteligencia artificial se está desarrollando a un ritmo rápido y hay muchas empresas de nueva creación en el campo de la inteligencia artificial que se han destacado. En este artículo, echemos un vistazo a qué nuevas empresas prometedoras de IA han sido elegidas por inversores como Sequoia Capital y Kleiner Perkins Caufield & Byers. Este artículo es de compilación y espero que pueda inspirarte.
Si solo tiene unos minutos libres, estas son las startups más interesantes sobre inteligencia artificial que los inversores, operadores y fundadores deberían conocer.
Mejorar la salud humana. Las empresas emergentes están utilizando tecnología de inteligencia artificial para mejorar los resultados médicos y diseñar nuevos tratamientos. Por ejemplo, la empresa Alife utiliza inteligencia artificial para mejorar los tratamientos de fertilización in vitro y brindar a las pacientes más posibilidades de concebir. Con el tiempo, el enfoque de la empresa podría alterar fundamentalmente la estructura de costos de la industria. NewLimit es otra startup de atención médica que aprovecha la tecnología de inteligencia artificial. El equipo de la empresa está buscando mejores formas de tratar enfermedades persistentes que antes eran difíciles de tratar.
Dejar que la inteligencia artificial sirva a las empresas. La mayoría de los productos de la IA generativa están destinados a los consumidores. Los usuarios habituales de Internet ahora pueden jugar con modelos complejos y crear texto e imágenes. Varias empresas prometedoras están abordando las necesidades empresariales de manera más directa, creando productos que incorporan datos internos de acuerdo con las pautas empresariales. Glean, Lamini, Dust y Lance son representantes de esta tendencia.
Utilice IA para limitar la IA. La revolución de la IA puede traer muchas oportunidades nuevas, pero también traerá muchas amenazas. En particular, la IA generativa facilita la creación de mensajes escritos realistas, lo que aumenta la cantidad y la sofisticación de las estafas de "spear phishing", que están diseñadas para obtener información personal de los destinatarios. Empresas como Abnormal Security pueden utilizar inteligencia artificial para detectar mensajes de IA maliciosos y prevenir este tipo de ataques.
*Las nuevas empresas de IA están repartidas por todo el mundo. Si bien Estados Unidos alberga muchos gigantes de la industria como OpenAI y Google, están surgiendo nuevas empresas prometedoras en todo el mundo. Mistral está construyendo un modelo de lenguaje de código abierto a gran escala en su sede de París y uno de sus fundadores cree que rivalizará con OpenAI. La empresa alemana Sereact también ha desarrollado impresionantes productos robóticos de inteligencia artificial y ha firmado contratos con gigantes industriales.
La inteligencia artificial es el hilo conductor de la historia tecnológica de este año. Desde la última serie "Qué mirar en IA", el campo ha seguido atrayendo capital, talento y atención. Por supuesto, no toda la atención es positiva. A pesar del entusiasmo generalizado por las capacidades de la tecnología, durante los últimos cuatro meses los pesos pesados de la industria han expresado sus preocupaciones y los reguladores han comenzado a idear algunas salvaguardas. En los próximos meses y años, la inteligencia artificial tendrá un impacto radical en nuestras vidas y creará nuevos ganadores y perdedores en todo el mundo.
Nuestra serie "Qué mirar" está diseñada para ayudar a los lectores a prepararse para los tiempos venideros y visualizar el futuro con mayor claridad. Este es un excelente punto de partida para quienes desean comprender las tecnologías que están surgiendo en la frontera de la inteligencia artificial y aprovechar los cambios que se están produciendo. Para ello, invitamos a los inversores y fundadores más destacados en el campo de la inteligencia artificial a presentar las startups que consideran más prometedoras.
1. Vida
Usando inteligencia artificial para mejorar la tecnología de FIV
En cualquier proceso reproductivo hay momentos que requieren la toma de decisiones humanas, y los dos vínculos más relevantes de la FIV son la "estimulación ovárica" y la "selección de embriones".
"Estimulación ovárica" se refiere a determinar la dosis de medicamento que recibe una paciente para estimular el crecimiento de los folículos en los ovarios y cuándo administrar una inyección desencadenante para estimular a los folículos a liberar óvulos. El momento del disparo es crucial; si es demasiado temprano, es posible que obtengas óvulos inmaduros; si es demasiado tarde, es posible que obtengas óvulos demasiado maduros o que no obtengas tantos óvulos como sea posible.
La "selección de embriones" se refiere a elegir qué óvulo fertilizado usar e implantar. Actualmente, los médicos y embriólogos, como la mayoría de los profesionales médicos, basan sus decisiones en una combinación de su propia experiencia y formación, sistemas de clasificación morfológica y prueba y error. Si la dosis o el momento no son correctos en un ciclo, lo ajustarán en el siguiente ciclo. Esto requiere una competencia profesional muy alta de los médicos y, en este punto, los médicos tienen distintos niveles de habilidad, y sus habilidades son muy importantes para los resultados. Para la fertilidad, un mercado con una oferta severamente limitada, eso significa un precio elevado, especialmente si se quieren ver resultados óptimos.
Alife está construyendo herramientas de inteligencia artificial para mejorar los resultados de la fertilización in vitro (FIV). La empresa utiliza herramientas de inteligencia artificial para proporcionar a los profesionales "superpoderes" para mejorar la precisión de su toma de decisiones aprovechando conjuntos masivos de datos de entrada y resultados. Ahora, a través de una interfaz sencilla, los médicos pueden ingresar las características de un paciente y recibir recomendaciones precisas en momentos clave del viaje de fertilidad, derivadas de los resultados de miles de ciclos anteriores. Estos conjuntos de datos provienen de grandes cantidades de información de pacientes que ya existen y mejoran a medida que cada paciente utiliza los productos Alife.
Estas herramientas cambiarán la naturaleza de la industria de la fertilidad. La investigación de Alife muestra que su modelo de aprendizaje automático puede ayudar a los médicos a optimizar el 50% del tiempo de activación y ayudar a recuperar un promedio de tres óvulos maduros más, dos óvulos fertilizados y un embrión más. Los productos de Alife pueden ampliar significativamente el acceso a los tratamientos de infertilidad, reduciendo los costos por paciente al reducir la dosis de los medicamentos necesarios y aumentando la tasa de éxito de los ciclos de FIV. También nivelaría las condiciones para los médicos, dando a aquellos que carecen de experiencia de primera mano acceso a una gama más amplia de conocimientos e información.
En última instancia, puede imaginarse las herramientas de Alife proporcionando toda la información para los momentos críticos de un proceso y permitiendo que otros profesionales operen, cambiando significativamente la estructura de costos y la disponibilidad de la industria. Es más, la medicina de precisión basada en datos, que aumenta (o eventualmente reemplaza) el juicio de una persona con recomendaciones personalizadas, no es exclusiva del mundo de la FIV. Hay miles de momentos como este en la medicina, en los que tenemos la oportunidad de utilizar datos para cambiar drásticamente los resultados y el acceso a procedimientos y tratamientos críticos.
—Rebecca Kaden, socia general, Union Square Ventures
2. Recoger
Búsqueda empresarial
En el trabajo, encontrar exactamente la información que necesita cuando la necesita debería ser rápido y fácil. Dado que todo el mundo utiliza muchas aplicaciones para realizar su trabajo y, como resultado, genera una gran cantidad de datos y documentos, este no es siempre el caso. A medida que el “conocimiento” crece exponencialmente y la naturaleza del trabajo se vuelve cada vez más distribuida, cada vez lleva más tiempo encontrar el conocimiento existente. En otras palabras, es bastante difícil "buscar cosas" en el trabajo.
Para ayudar a los empleadores a resolver este problema, Arvind Jain y su equipo crearon Glean, una plataforma de búsqueda unificada en el lugar de trabajo impulsada por inteligencia artificial. Dota a los empleados de un asistente de trabajo intuitivo que les ayuda a encontrar exactamente lo que necesitan y a descubrir de forma proactiva lo que deben saber.
La misión de la empresa ha sido simple desde el principio: ayudar a las personas a encontrar respuestas a todas sus preguntas sobre el lugar de trabajo más rápido, con menos frustración y pérdida de tiempo. Pero los resultados de la empresa luego se expandieron mucho más allá de la búsqueda. Por ejemplo, Glean no solo busca en todas las aplicaciones y bases de conocimiento del lugar de trabajo (Slack, Teams, Google Drive, Figma, Dropbox, Coda, etc.), sino que también comprende el lenguaje natural y el contexto, según los roles de las personas y las relaciones internas y externas de la empresa. Personaliza al usuario. interacciones. Muestra de forma inteligente la información más popular y verificada de su empresa, lo que le ayuda a descubrir lo que sabe su equipo y a mantener la coherencia, todo ello de forma autorizada.
A medida que las organizaciones se vuelven más distribuidas y el conocimiento se fragmenta más, los asistentes de trabajo intuitivos como Glean ya no son una herramienta agradable sino una herramienta fundamental para mejorar la productividad de los empleados. El crecimiento de la empresa derribará las barreras que impiden el progreso y creará una experiencia laboral más positiva y productiva.
Además, la tecnología de búsqueda de Glean le permite llevar la IA generativa al lugar de trabajo mientras cumple con los estrictos requisitos de permisos y gestión de datos de la empresa. Hoy en día, uno de los principales obstáculos que impide que las empresas entren en producción aplicaciones de IA es su incapacidad para implementar controles de gobernanza adecuados. Al insertar permisos de datos en tiempo real en el entorno local de una empresa, Glean se ha convertido en la solución ideal para ayudar a las empresas a resolver problemas de gobernanza a escala y permitirles aprovechar con confianza sus datos internos para la capacitación e inferencia de modelos, aprovechando así un nivel empresarial. Plataforma de datos de IA/El papel del almacenamiento vectorial.
Con el tiempo, creemos que cada empresa tendrá su propia versión de IA que comprenderá los matices de la empresa y sus empleados. Creemos que Glean está aprovechando esta oportunidad.
—Josh Coyne, socio, Kleiner Perkins
3. Lanza
Almacenamiento y Gestión de Datos Multimodales
Todos hemos jugado a Midjourney y la mayoría de nosotros hemos visto una demostración de GPT-4. Midjourney (texto a imagen) y GPT-4 (imagen a texto/código) ilustran las posibilidades cuando los modelos se vuelven multimodales, uniendo diferentes formas de medios como texto, imágenes y audio. Si bien gran parte de la moda actual de la IA gira en torno a modelos basados en texto, los modelos multimodales son clave para construir representaciones más precisas del mundo.
A medida que nos embarcamos en la próxima ola de aplicaciones de IA en industrias como la robótica, la atención médica, la manufactura, el entretenimiento y la publicidad, cada vez más empresas se basarán en modelos multimodales. Empresas como Runway y Flair.ai son buenos ejemplos de líderes emergentes en sus campos que han visto una demanda masiva de sus productos por parte de los usuarios, mientras que empresas existentes como Google han comenzado a lanzar capacidades multimodales similares.
Sin embargo, el uso de modelos multimodales plantea un desafío: ¿cómo almacenar y gestionar los datos? Los formatos de almacenamiento tradicionales como Parquet no están optimizados para datos no estructurados, por lo que los equipos grandes de modelos de lenguaje experimentan un rendimiento lento al cargar, analizar, evaluar y depurar datos. Además, los flujos de trabajo de modelos de lenguaje grandes son más propensos a errores sutiles debido a la falta de una única fuente de verdad. Lance es la última empresa que ha surgido para abordar este desafío. Empresas como Midjourney y WeRide están convirtiendo conjuntos de datos a escala de petabytes al formato Lance, lo que proporciona importantes mejoras de rendimiento y costos de almacenamiento incrementales de un orden de magnitud menores en comparación con formatos tradicionales como Parquet y TFRecords.
Lance no se limita al almacenamiento: ha reconocido la necesidad de reconstruir toda su pila de gestión de datos para alinearse mejor con el mundo hacia el que nos dirigimos, donde los datos multimodales y no estructurados se convertirán en el activo más valioso de una empresa. Su primer producto de plataforma, LanceDB (actualmente en versión beta privada), proporciona una experiencia integrada perfecta para los desarrolladores que buscan incorporar funcionalidad multimodal en sus aplicaciones.
Lance es sólo un ejemplo de cómo las empresas están llevando a los desarrolladores a un futuro multimodal, y estoy muy entusiasmado de ver surgir otras tecnologías para avanzar en las aplicaciones multimodales. Con el desarrollo de la inteligencia artificial, no pasará mucho tiempo antes de que ese futuro se haga realidad.
——Saar Gur, socio general, CRV
4. Seguridad anormal
Contener la ola de ciberataques mejorados por IA
Soy un optimista descarado cuando se trata de IA generativa, pero no soy ingenuo al respecto. Por ejemplo, me preocupa la proliferación de ataques de "ingeniería social", como el phishing, que a menudo utiliza el correo electrónico para extraer información confidencial. Desde que ChatGPT se hizo popular el año pasado, la incidencia de este tipo de ataques ha aumentado drásticamente.
El año pasado, el número de ataques por cada 1.000 personas aumentó de menos de 500 a más de 2.500, según Abnormal Security. La sofisticación de los ataques también está aumentando dramáticamente. Así como cualquier estudiante puede usar ChatGPT para escribir un ensayo perfecto, ChatGPT también se puede usar para enviar mensajes fraudulentos gramaticalmente perfectos y peligrosamente personalizados.
Según el FBI, estos ataques dirigidos a "comprometer el correo electrónico empresarial" han causado más de 50 mil millones de dólares en pérdidas desde 2013. Y va a empeorar. Cada día, innumerables ciberdelincuentes y otros malos actores explotan herramientas de sombrero negro como “WormGPT”, un chatbot diseñado para extraer datos de malware con el fin de orquestar las campañas de fraude más convincentes y a gran escala para llevar a cabo actividades fraudulentas.
Afortunadamente, los cofundadores de Abnormal, Evan Reiser y Sanjay Jeyakumar, están trabajando arduamente para utilizar la inteligencia artificial para combatir esta amenaza. Puedes pensar en esto como usar IA para luchar contra la IA. Históricamente, los sistemas de seguridad del correo electrónico escaneaban en busca de firmas de mal comportamiento conocido, como direcciones IP específicas o intentos de acceder a información de identificación personal (PII).
Aprovechando el poder de la inteligencia artificial, Abnormal subvierte todo esto. Debido a que muchos ataques parecen legítimos gracias a la inteligencia artificial, el enfoque de Abnormal es comprender completamente el buen comportamiento conocido para que se noten incluso las desviaciones sutiles. La empresa utiliza modelos de lenguaje a gran escala para construir representaciones detalladas de su funcionamiento interno y externo digital, como quién habla normalmente entre sí y con qué contenido es probable que interactúen. Si mi socio Reid Hoffman me enviara un correo electrónico y dijera: "Oye, envíame la información más reciente sobre Inflection.AI". El motor de IA de Abnormal lo descubriría rápidamente. Reed rara vez comienza con "hey", rara vez envía una sola oración. y nunca me ha pedido que le envíe un archivo sobre Inflection.AI. (¡Como cofundador y miembro de la junta directiva de la empresa, él tenía más acceso a estos documentos que yo!).
No es sorprendente que, a medida que las preocupaciones de seguridad en torno a la IA generativa continúan creciendo, la demanda de los clientes empresariales de Abnormal se haya acelerado. Creo que el éxito de Abnormal es muy gratificante porque ha podido aprovechar la IA muy rápidamente para abordar problemas que la IA está acelerando. En períodos de cambio tecnológico disruptivo, los malos actores a menudo disfrutan de largas ventajas como primeros en actuar. Después de todo, pueden aprovechar la innovación sin tener que preocuparse por la calidad del producto, la seguridad o los reguladores que aún no han promulgado nuevas leyes.
Al mismo tiempo, es comprensible que las nuevas empresas tecnológicas se estén centrando en desarrollar nuevos casos de uso potentes para sus innovaciones en lugar de bloquear innovaciones ilegales o disruptivas. Pero como todas las cuestiones relacionadas con la inteligencia artificial, el daño cibernético que puede causar el mal uso de la inteligencia artificial es asombroso. Gracias a la previsión del equipo de Abnormal, es posible que al menos sea menos probable que se produzca la nueva normalidad del cibercrimen.
—Sam Motamedi, socio, Greylock
5. Polvo
Empoderar a los trabajadores del conocimiento
Está claro que los grandes modelos lingüísticos mejorarán la eficiencia de los trabajadores del conocimiento. Pero no está claro exactamente cómo se haría eso. Dust está tratando de resolver eso. Los gestores del conocimiento son de poca ayuda dentro de la empresa si no pueden acceder a los datos internos. Por eso, Dust creó una plataforma que indexa, incorpora y actualiza en tiempo real los datos internos de una empresa (Notion, Slack, Drive, GitHub) y los expone a productos impulsados por grandes modelos de lenguaje.
Los cofundadores de Dust, Gabriel Hubert y Stanislas Polu, vendieron una empresa a Stripe y trabajaron allí durante cinco años. Han visto de primera mano cómo las empresas de rápido crecimiento luchan con la escala. Han visto de primera mano lo que se llama "deuda de información" y ahora se centran en aplicar grandes modelos de lenguaje para resolver algunos de los principales problemas asociados con ella. Actualmente, Dust está explorando las siguientes aplicaciones en su plataforma:
Motor de respuesta. El énfasis está en la factualidad, ya que esto es clave para una adopción generalizada.
Generar asistente. Proporciona ayuda con plantillas al crear contenido. Por ejemplo, genere párrafos faltantes basados en datos internos.
*Documentos actualizados automáticamente. Cada vez que surge información dentro de la empresa que debe actualizar el documento, el propietario del documento recibe notificaciones y sugerencias.
Extracción de eventos estructurados. Los usuarios pueden generar eventos estructurados a partir de datos no estructurados (como hilos de Slack) basados en plantillas predefinidas.
*Seguimiento de datos internos. Supervise los datos empresariales con reglas inteligentes. Por ejemplo, reciba una alerta si información de identificación personal (PII) aparece inadvertidamente donde no debería.
Si bien es una gran cantidad de contenido, los fundadores de Dust creen que la mayoría de estos flujos de datos eventualmente convergerán en un producto unificado. Todavía se encuentran en las primeras etapas de exploración y están formando una imagen final de Dust. Basándose en las iteraciones iniciales, creen haber confirmado su hipótesis central: que las capacidades de los trabajadores del conocimiento pueden aumentarse (en lugar de reemplazarse) mediante modelos lingüísticos a gran escala, y que se puede construir un nuevo "sistema operativo de equipo" sobre ellos. este.
——Konstantine Buhler, socio de Sequoia Capital
6. Caja de etiquetas
Divulgar datos comerciales
El “aumento del big data” se ha producido durante más de 20 años y, aunque las empresas están ingiriendo continuamente más datos que nunca, muchas empresas todavía luchan por utilizar estos datos para obtener información a partir de modelos de inteligencia artificial. El procesamiento y la interpretación de datos siguen siendo las partes más tediosas y costosas del proceso de IA, pero también las más importantes para obtener resultados de alta calidad. Incluso con el aumento de grandes modelos de lenguajes previamente entrenados, las empresas seguirán teniendo que centrarse en utilizar sus propios datos patentados (en múltiples modalidades) para crear IA generativa en una posición única para ofrecer servicios e información diferenciados y mejorar la eficiencia operativa.
Labelbox resuelve este desafío simplificando la forma en que las empresas introducen conjuntos de datos en modelos de IA. Ayuda a los equipos de datos y aprendizaje automático a encontrar los datos correctos, procesarlos e interpretarlos, enviar modelos a las aplicaciones y medir y mejorar continuamente el rendimiento.
La nueva plataforma de Labelbox aprovecha la inteligencia artificial generativa. Model Foundry permite a los equipos experimentar rápidamente con modelos básicos de IA de los principales proveedores de código abierto y cerrado, lo que les permite preetiquetar datos y experimentar rápidamente con solo unos pocos clics. De esta manera, pueden comprender qué modelo funciona mejor con sus datos. Model Foundry genera automáticamente métricas de rendimiento detalladas para cada experimento ejecutado mientras versiona los resultados.
El impacto podría ser de gran alcance. Tradicionalmente, los humanos han pasado días completando una tarea simple pero que requiere mucho tiempo, como clasificar una lista de comercio electrónico que contiene varios párrafos de texto. Con GPT-4, esta tarea se puede completar en cuestión de horas. Model Foundry permite a las empresas descubrir estas formas eficientes por sí mismas.
Este no es el único ejemplo. Los primeros resultados muestran que más del 88% de las tareas de etiquetado pueden acelerarse mediante uno o más modelos base. Labelbox permite a cualquier persona preetiquetar datos con solo unos pocos clics, sin la necesidad de codificar e ingresar datos en un modelo. Esta herramienta está diseñada para capacitar a los equipos para que trabajen en colaboración y aprovechen la experiencia multifuncional para mantener la supervisión manual del control de calidad de los datos. Esta capacidad democratiza el acceso a la inteligencia artificial al permitir que los expertos en modelos de lenguaje y las pequeñas y medianas empresas evalúen fácilmente modelos, enriquezcan conjuntos de datos y colaboren para crear aplicaciones inteligentes.
Se ha demostrado que Labelbox reduce significativamente los costos y mejora la calidad de los modelos para las empresas más grandes del mundo, incluidas Walmart, Procter & Gamble, Genentech y Adobe.
Ahora es una competencia para las empresas liberar el poder de estos modelos subyacentes en sus datos patentados para resolver problemas comerciales. Esperamos ver cómo Labelbox ayudará a las empresas a desbloquear datos para ofrecer mejores productos con mayor eficiencia.
——Robert Kaplan, socio, SoftBank
7. Pista
Nueva Suite Creativa
La inteligencia artificial está en todas partes y se está convirtiendo cada vez más en una mercancía. En la mayoría de los casos, las empresas utilizan la IA como chatbots para enriquecer las aplicaciones existentes. Pocas aplicaciones de IA están reinventando las experiencias de los productos, utilizando la tecnología para cambiar fundamentalmente la forma en que interactuamos con los productos, tal como el motor de búsqueda de Google cambió la forma en que navegamos por Internet o Instagram cambió la forma en que compartimos fotos desde nuestros teléfonos. Estas aplicaciones de IA requieren una comprensión profunda de la experiencia del usuario existente, un pensamiento visionario sobre los productos y tecnología de vanguardia.
Runway es un ejemplo destacado de una empresa que utiliza la investigación de IA aplicada para reimaginar experiencias creativas y crear una suite creativa completamente nueva.
Profundo conocimiento de la experiencia del usuario. Fundadores Cristóbal Valenzuela, Anastasis Germanidis y Alejandro Matamara-Ortiz Alejandro Matamala-Ortiz es un investigador con especialización en telecomunicaciones interactivas en la Universidad de Nueva York y tiene muchos años de experiencia en diseño. El equipo de Runway comprende el ecosistema de herramientas creativas a partir de la experiencia directa y las barreras para la adopción masiva. Por ejemplo, la producción cinematográfica creativa a menudo requiere maquinaria costosa, recursos de software y altos niveles de capacitación. Como resultado, la realización cinematográfica creativa se ha concentrado históricamente en los grandes estudios. Runway vio la oportunidad de ampliar y mejorar la accesibilidad de las herramientas creativas necesarias.
Pensamiento de producto con visión de futuro. Runway reconoció desde el principio que un punto de inflexión en la inteligencia artificial podría mejorar drásticamente la experiencia del usuario, no solo mejorando las herramientas creativas existentes sino también cambiando fundamentalmente la forma en que funcionan esas herramientas. Por ejemplo, los usuarios pueden crear contenido de vídeo completamente nuevo desde cero mediante sencillas indicaciones de texto. Es importante destacar que este video es de nivel profesional y se puede compartir a través de una computadora de escritorio o un dispositivo móvil. Independientemente del nivel de habilidad, experiencia o recursos, Runway puede ahorrar horas o días de trabajo de edición. Este es un producto visionario que transforma simples recordatorios en vida vívida y conmovedora.
Experto líder en tecnología de inteligencia artificial. Runway no solo resolvió un problema con un producto visionario, sino que reinventó la infraestructura de investigación y tecnología subyacente. La organización de investigación interna de Runway está liderando el camino en redes neuronales profundas para la síntesis de imágenes y videos. La compañía ha desarrollado Gen-2, un modelo de vídeo de inteligencia artificial multimodal que es más potente que cualquier otro disponible actualmente en el mercado. Este es el primer modelo público capaz de convertir texto a vídeo. Antes de esto, Runway lanzó Gen-1, un modelo que conduce a un cambio de paradigma en las herramientas de generación de video que produce resultados de alta calidad. Los investigadores de Runway también fueron pioneros en el modelo de difusión estable de texto a imagen.
Desde octubre de 2022, Runway ha desarrollado más de 30 "herramientas mágicas" de IA que cubren video, imágenes, 3D y texto, y atienden todos los aspectos del proceso creativo, desde la preproducción hasta la postproducción. Su base de clientes incluye empresas Fortune 500 y Global 2000, como The Late Show with Stephen Colbert de CBS, New Balance, Harbor Picture Video, Publicis) y Google. La plataforma también se ha utilizado para editar películas nominadas al Oscar, como el éxito de Hollywood Everything Everywhere All at Once.
Las aplicaciones de IA más interesantes transforman las experiencias de productos existentes y repensan cómo los usuarios interactúan con los productos. Con Runway, los usuarios pueden completar nuevas creaciones de vídeo en segundos, ya sea que estén grabando un vídeo por primera vez o estén en el estudio de forma profesional. Este es un cambio revolucionario y un ejemplo de cómo la inteligencia artificial está remodelando diferentes industrias.
—Grace Isford, socia de Lux Capital
8. Nuevo límite
Remodelando el destino celular
Las células son los sistemas informáticos más complejos de la Tierra. Al igual que los chips de computadora, el ADN se compone de unidades básicas que crean funciones complejas. A diferencia de los códigos basados en bits, los códigos basados en átomos son aleatorios y jerárquicos. Un sistema depende de otro, que a su vez depende de otros sistemas físicos, cada uno de los cuales se ve afectado por el calor, la acidez y las moléculas del microambiente de la célula.
A pesar de estas interdependencias, el código máquina celular (ADN) puede ejecutar eficientemente diferentes programas. Aunque las células del hígado y las células de la piel contienen el mismo genoma, estos tipos de células se ven, se sienten y funcionan de manera diferente. ¿Por qué? Porque están ejecutando diferentes programas epigenéticos.
En 2006, Takahashi y otros utilizaron una combinación de cuatro proteínas del factor de transcripción (TF) para reprogramar células maduras en células madre, siendo pioneros en el campo de la reprogramación epigenética. Los factores de transcripción son proteínas que regulan los genes, cambiando esencialmente el "programa" que se está ejecutando. El descubrimiento de Takahashi y Yamanaka condujo a la creación de células madre pluripotentes inducidas (iPSC) y les valió el Premio Nobel. Desde entonces, muchos grupos de investigación han comenzado a aplicar combinaciones únicas de TF para cambiar los estados celulares, rejuvenecer las células dañadas y restaurar los fenotipos celulares juveniles.
Si bien la reprogramación epigenética es cada vez más manejable, todavía no es un asunto trivial. El equipo tuvo que discernir qué combinación de TF era eficaz en la transición de las células del estado A al estado B deseado. Por ejemplo, futuras combinaciones de TF pueden permitirnos convertir células enfermas en células sanas, desarrollando así una nueva clase de fármacos. Necesitamos pantallas de reprogramación a gran escala porque en muchas áreas de aplicación no se conoce la combinación exacta de TF. Hay más de 1500 TF humanos nativos, por lo que se necesita un método de búsqueda más eficiente. Creemos que NewLimit está diseñando ese enfoque.
Impulsado por avances en secuenciación unicelular y tecnologías de aprendizaje automático, NewLimit está transformando una disciplina que antes era manual en ciencia basada en datos. La empresa tiene una saludable división del trabajo entre biólogos moleculares y biólogos computacionales, sentando las bases culturales necesarias para construir una plataforma de circuito cerrado cada vez más eficiente. Combinando experiencia y lecturas multimodales (scRNA-Seq, scATAC-Seq, etc.), NewLimit tiene como objetivo descubrir remodeladores terapéuticos para tratar enfermedades previamente intratables.
En cada ronda de experimentos, NewLimit utiliza tecnología de lenguaje de máquina para:
Combine y comprima múltiples lecturas de detección en un espacio de optimización de baja dimensión que contenga el estado actual A y el estado deseado B de la celda.
Enumerar nuevas combinaciones de TF a lo largo del espacio de optimización que pueden llevar la unidad a su estado deseado.
Recomendar qué tipos de datos ayudarán a mejorar los modelos y cuándo y dónde aplicar métodos experimentales más costosos y de menor rendimiento.
Sugerir cambios que se deben realizar en la plataforma para maximizar la información útil generada por cada dólar gastado.
Además de su destacado equipo, destreza técnica y visión ambiciosa, también admiramos el espíritu pragmático de NewLimit. Si bien la empresa no ha compartido públicamente detalles de su estrategia comercial inicial, creemos que este enfoque es creativo, reduce razonablemente el riesgo y tiene el potencial de ser transformador para la humanidad. El equipo fundador está de acuerdo en que las plataformas biotecnológicas pueden compararse con proyectos científicos costosos sin generar activos a corto plazo. Para ello, NewLimit ha sido transparente y catalogado sus avances tecnológicos desde sus inicios.
Deberíamos sentirnos humildes ante la complejidad de la naturaleza. Sin duda, la biología es más difícil de programar que los dispositivos de silicio que diseñamos nosotros mismos. El objetivo de Dimension es capacitar a pioneros empresariales como NewLimit para explorar los límites de las posibilidades en la interfaz de la tecnología y la biología.
—Simon Barnett, director de investigación, Dimension
9. Junto a la piscina
Inteligencia Artificial Básica para el Desarrollo de Software
OpenAI se centra en la inteligencia artificial general, DeepMind se centra en los descubrimientos científicos y el tercer caso de uso fundamental de la inteligencia artificial es la comprensión y la creación de software.
GPT-4 está arraigado en los flujos de trabajo de desarrolladores tanto experimentados como novatos. Pero este cambio de paradigma está todavía en sus inicios. Extrapolando lo ocurrido en los últimos meses, la programación asistida por IA pronto se volverá omnipresente. A medida que esta tendencia se desarrolle aún más, el lenguaje natural se convertirá en la base abstracta sobre la que se construye el software.
Aunque otras empresas han lanzado modelos de código puro a gran escala como StarCoder, ningún método se ha acercado todavía al rendimiento de GPT-4. Creo que esto se debe a que un modelo entrenado únicamente con código no puede producir capacidades sólidas de desarrollo de software. Así conocí a Poolside. La empresa fue fundada por Jason Warner, ex director de tecnología de GitHub, y Eiso Kant, ex fundador de source{d}, la primera empresa de inteligencia artificial de códigos de investigación del mundo, Smart Company.
Poolside es único porque adopta el enfoque del modelo base OpenAI pero se centra en una sola función: la generación de código. Su estrategia tecnológica depende del hecho de que el código se pueda ejecutar, lo que permite una retroalimentación inmediata y automática durante el proceso de aprendizaje. Esto permite el aprendizaje por refuerzo mediante la ejecución de código, una alternativa convincente al aprendizaje por refuerzo basado en retroalimentación humana (RLHF). Esto es algo que Esso comenzó a explorar ya en 2017.
Si bien el potencial de la inteligencia artificial general (AGI) para beneficiar a la humanidad es innegable, su realización aún está lejos. Entonces, ¿por qué esperar a AGI? Al centrarnos en áreas específicas del avance de la IA, como el desarrollo de software, podemos desmantelar más barreras a la creatividad. Espero con ansias el día en que el equipo de Poolside haga realidad su visión de construir un modelo de infraestructura de software dedicado.
——Matan Grinberg, cofundador y director ejecutivo de Factory
10. Mistral
Competidores de OpenAI en Francia
Recientemente, París se ha visto iluminada por una explosión de proyectos en el campo de la inteligencia artificial generativa. Quizás te preguntes ¿por qué? Mi opinión es que París tiene el mayor grupo de talentos de clase mundial en IA generativa que está fuera del horizonte de eventos de OpenAI. De estos proyectos, el más audaz es sin duda Mistral. Mistral fue fundada por Guillaume Lample, Arthur Mensch y Timothe Lacroix con la misión de construir los mejores modelos de lenguaje de código abierto. El objetivo es construir un ecosistema próspero en torno a estos modelos.
Conozco a Guillaume desde hace cuatro años y ambos hemos estado profundamente involucrados en la aplicación de grandes modelos de lenguaje a áreas de las matemáticas, especialmente las matemáticas formales. Mientras trabajábamos en OpenAI y Meta, desarrollamos una relación competitiva amistosa. Guillaume es uno de los investigadores más talentosos con los que he tenido el placer de trabajar y tuve el privilegio de verlo pasar de la investigación en Meta a la fundación de Mistral. En el proceso también conocí a Arthur Mensch. Siempre me ha impresionado su trabajo, especialmente Chinchilla, que redefinió lo que significa entrenar de manera eficiente grandes modelos de lenguaje, y RETRO, un enfoque para el modelado de lenguaje mejorado con recuperación que, yo diría, aún no está completamente explorado.
Ahora, profundicemos en lo que hace que Mistral Mistral. La visión de la startup es construir un ecosistema basado en el mejor modelo de código abierto de su clase. Este ecosistema servirá como plataforma de lanzamiento para proyectos, equipos y empresas, acelerando el ritmo de la innovación y el uso creativo de grandes modelos lingüísticos.
Tomemos como ejemplo el aprendizaje por refuerzo basado en la retroalimentación humana (RLHF). Normalmente, realizar RLHF lleva mucho tiempo y, por tanto, es costoso. Implica "marcar" manualmente las acciones de la IA, lo que puede requerir mucho trabajo. El esfuerzo sólo valdrá la pena si la promesa de un modelo de IA es lo suficientemente buena. Para una gran empresa como OpenAI, invertir en este proceso tiene sentido y la empresa tiene los recursos para hacerlo realidad. Pero las comunidades tradicionales de código abierto normalmente necesitan un "líder" que dé un paso adelante y asuma esta importante responsabilidad.
Mistral tiene la oportunidad de hacer precisamente eso, invirtiendo en un modelo de código abierto para RLHF. Al hacerlo, Mistral abrirá la puerta a una explosión de innovación en el Cámbrico. Los desarrolladores de código abierto tendrán acceso a modelos claramente etiquetados que podrán adaptar y personalizar según diferentes necesidades. El ganador final será el mercado en general y tendremos acceso a casos de uso más específicos y atractivos que los que una empresa cerrada podría producir por sí sola.
Quien tenga el mejor modelo de código abierto atraerá más interés y valor. Soy optimista con respecto a Mistral porque el equipo está empujando activamente la frontera de eficiencia/rendimiento. Al mismo tiempo, el talento de Mistral en este ámbito es, con diferencia, el mejor del mundo.
Mistral ha conseguido el equipo y los recursos para ejecutar esta visión inicial. La empresa también ha encontrado socios para evaluar estos modelos en casos de uso a nivel empresarial. Esté atento a Mistral, están listos para enfrentarse a OpenAI.
——Stanislas Polu, cofundador de Dust
11. Sereacta
Robots industriales más inteligentes
A menudo escuchamos predicciones de que, a largo plazo, la inteligencia artificial y la robótica aumentarán o automatizarán las tareas humanas. Hoy en día, esto se ha convertido cada vez más en un imperativo empresarial urgente.
Para 2030, se espera que la población europea en edad de trabajar disminuya en 13,5 millones y los costos laborales estén aumentando al ritmo más rápido en más de 20 años. Con el auge del comercio electrónico, los almacenes están bajo más presión que nunca y cada vez es más difícil para las empresas seguir siendo competitivas.
El 55% de los gastos operativos del almacén provienen de la preparación de pedidos, pero la situación no es optimista para las empresas que buscan pasar a sistemas automatizados. Ninguna de las aplicaciones llamativas que conocemos en SaaS (software como servicio) impulsado por IA, o la gran cantidad de productos de código abierto que vemos en otras partes del ecosistema, aún no se ha aplicado a la robótica.
En cambio, las empresas que buscan automatizar la recolección y el empaque se enfrentan a la elección de soluciones robóticas costosas e inflexibles. Deben navegar por una gran cantidad de interfaces patentadas que requieren mucho tiempo de programación y experiencia. Estos sistemas también tienen dificultades para hacer frente a las mezclas cambiantes de productos, requieren intervención humana regular y funcionan mal al manejar situaciones extremas.
Secret resuelve estos problemas. Su software se basa en potentes entornos simulados y entrena brazos robóticos para comprender los matices espaciales y físicos de cualquier entorno potencial del mundo real. Una vez implementado, el sistema se optimizará aprendiendo continuamente de datos del mundo real. También significa que pueden afrontar el desafío de agarrar artículos tradicionalmente difíciles, como productos electrónicos, textiles, frutas, azulejos y madera.
Lo más interesante es que su pila de robótica utiliza grandes modelos de lenguaje para permitir el control intuitivo de los robots en lenguaje natural. Desarrollaron un modelo de convertidor llamado "PickGPT" que permite a los usuarios dar instrucciones y comentarios al robot mediante voz o texto. De esta forma, cualquiera puede pedirle al robot que realice una tarea deseada, independientemente de su nivel de conocimientos técnicos.
Secret combina las dos áreas de especialización de sus cofundadores. El director ejecutivo Ralf Gulde ha trabajado en la intersección de la inteligencia artificial y la robótica, mientras que el director tecnológico Marc Tusher se especializa en aprendizaje profundo. La pareja llevó a cabo una investigación revisada por pares sobre estos temas en la Universidad de Stuttgart, una de las universidades más prestigiosas de Alemania en automatización y fabricación industrial.
A pesar de ser una empresa joven, Sereact ya ha atraído a una lista impresionante de socios, entre ellos Daimler Truck, Schmalz, Zenfulfillment, Zimmer Group) y Material Bank. Esto indica que existe una enorme oportunidad de mercado potencial en la industria de recolección y embalaje.
Más allá de los casos de uso obvios en los almacenes de comercio electrónico, ya sea preparando pedidos o desempacando cajas, existe una variedad de otros casos de uso. Por ejemplo, en la fabricación tradicional existe un proceso que requiere mucho tiempo llamado ensamblaje, que implica recolectar laboriosamente las piezas delicadas necesarias para el ensamblaje. Históricamente, los brazos robóticos han tenido dificultades para agarrar piezas pequeñas y clasificar piezas individuales en entornos desordenados. El software de Sereact puede identificar estas piezas y seleccionar la pinza correcta para seleccionarlas.
El equipo de Sereact no solo está altamente capacitado, sino que también tiene un profundo conocimiento del entorno laboral del cliente y un deseo genuino de ayudarlos a superar la escasez de mano de obra y lograr operaciones eficientes y sostenibles. Como la primera empresa en trasladar la combinación de grandes modelos de lenguaje y paquetes de recogida desde la posibilidad académica al impacto en el mundo real, tengo plena confianza en su capacidad para ejecutar y escalar un verdadero desafío de la robótica.
—Nathan Benaich, socio general de Air Street Capital
12. Lamini
Motor de modelo de lenguaje a gran escala hecho a medida
Ahora, todas las empresas están intentando integrar la inteligencia artificial en su negocio. Las empresas más grandes del mundo reconocen el potencial de la inteligencia artificial, y el 20% de los directores ejecutivos del S&P 500 mencionan la IA durante sus llamadas sobre ganancias del primer trimestre. Los modelos de lenguaje grandes pueden mejorar significativamente la eficiencia empresarial al acelerar funciones centrales como la atención al cliente, las ventas salientes y la codificación. Los modelos de lenguaje grandes también pueden mejorar las experiencias de los productos principales al responder las preguntas de los clientes con asistentes basados en IA o crear nuevos flujos de trabajo generativos de IA para deleitar a los clientes.
Dado que las grandes empresas tienden a tardar en adoptar nuevas tecnologías, nos sorprendió la rapidez con la que las empresas comenzaron a construir con IA. No es sorprendente que muchas empresas quieran crear sus propios modelos y soluciones de IA internamente. Cada empresa tiene un tesoro propio de datos de clientes, a menudo como parte de su negocio principal. Estas empresas ven riesgos al enviar sus datos más valiosos a API de modelos subyacentes o a nuevas empresas cuya confiabilidad es incierta. Incluso independientemente de los problemas de privacidad de los datos, los modelos de lenguaje públicos a gran escala, como GPT-4 o Claude, están entrenados completamente en datos abiertos y, por lo tanto, carecen de capacidades de personalización para casos de uso y segmentos de clientes específicos de la empresa.
Algunas empresas de tecnología, como Shopify y Canva, han formado "AI Tiger Teams" internos para utilizar modelos de código abierto ya preparados para integrar la inteligencia artificial en todas las partes del negocio. Sin embargo, la mayoría de las empresas no tienen los recursos ni los investigadores de IA experimentados para construir e implementar modelos de lenguaje propietarios a gran escala basados en sus propios datos. Se dan cuenta de que esta ola de IA podría ser un momento transformador para el futuro de su negocio, pero hasta ahora no han podido aprovechar ni controlar su propio desarrollo de IA.
Por eso estamos tan entusiasmados con lo que Sharon Zhou, Greg Diamos y su equipo están haciendo en Lamini. Lamini es un motor de modelos de lenguaje a gran escala que facilita a los desarrolladores entrenar, ajustar, implementar y mejorar rápidamente sus propios modelos con comentarios humanos. Esta herramienta proporciona una experiencia de desarrollo agradable que abstrae las complejidades de los modelos de IA y, lo que es más importante, permite a las empresas crear soluciones de IA a partir de sus propios datos sin tener que contratar investigadores de IA ni correr el riesgo de fuga de datos. Trabajamos con Sharon y Greg por primera vez el otoño pasado. Desde entonces, hemos tenido la oportunidad de apoyar a este equipo fundador técnicamente competente y centrado en el cliente a medida que hacen realidad su ambiciosa visión de transformar la forma en que las empresas adoptan la IA.
Específicamente, implementar modelos de lenguaje grandes privados con Lamini ofrece una amplia gama de ventajas en comparación con el uso de soluciones públicas. Tener un equipo de ingeniería interno que se encargue del proceso de construcción garantiza la privacidad de los datos y permite una mayor flexibilidad en la selección del modelo y en toda la pila de datos y computación. Los modelos creados con Lamini también reducen los artefactos, reducen la latencia, garantizan tiempos de ejecución confiables y costos más bajos en comparación con las API disponibles en el mercado. Estas mejoras de rendimiento provienen de conocimientos técnicos básicos que el equipo de Lamini incorpora al producto basándose en décadas de investigación y experiencia en la industria en torno a modelos de IA y optimización de GPU.
Startups y grandes empresas reconocidas ya están utilizando Lamini para implementar grandes modelos de lenguaje internamente y con los clientes, y están entusiasmados con la velocidad de configuración, el rendimiento y la confiabilidad. En el futuro, creemos que todas las empresas utilizarán la IA en sus negocios y productos, pero sólo unas pocas empresas tendrán equipos de IA dedicados. Lamini es una startup que está nivelando el campo de juego y brindando a todas las empresas la oportunidad de aprovechar esta tecnología transformadora. Gracias a su reciente asociación con Databricks, ahora es más fácil que nunca para las empresas poner en funcionamiento sus soluciones de inteligencia artificial configurando Lamini directamente en los lagos de datos y clústeres de computación de Databricks existentes.
——James Wu, inversionista de First Round Capital; Todd Jackson, socio de First Round Capital
13. Fábrica
Su “robot” de codificación
Hoy en día, si quieres que una computadora haga algo por ti, tienes que traducir tus pensamientos al "lenguaje informático", un código de hipertexto que un compilador pueda entender. Para convertirte en ingeniero, debes torcer tu cerebro como una máquina. Sin embargo, estamos llegando a un punto de inflexión en el que la IA puede convertir el lenguaje humano en código. Es probable que la transición de ingenieros humanos a ingenieros digitales se convierta en uno de los puntos de inflexión tecnológicos más importantes de nuestras vidas.
Todavía estamos en las primeras etapas de esta transformación. Herramientas de inteligencia artificial como BabyAGI y AutoGPT han capturado la imaginación del público. Pero si bien los asistentes de codificación como Github Copilot representan una mejora, todavía son muy limitados y sirven principalmente como autocompletado para ideas ya implementadas en el código.
La fábrica es diferente. La empresa fue fundada en 2023 por el ex teórico de cuerdas Matan Grinberg y el ingeniero de aprendizaje automático Eno Reyes. Cuando conocí a Mattan, me atrajo inmediatamente su visión: un futuro en el que los ingenieros puedan hacer que construir cosas sea divertido delegando tareas molestas y concentrándose en problemas difíciles. Para ello, Matan y Eno crearon "robots" de codificación autónomos.
Los bots son ingenieros de inteligencia artificial que se encargan de tareas diarias como revisión, depuración y refactorización de código. A diferencia de los productos existentes, los bots de Factory no requieren que usted haga nada; pueden revisar el código de forma independiente, manejar errores y responder preguntas. También puede utilizar bots como desarrolladores junior, utilizándolos para intercambiar ideas y compartir el trabajo de funciones. Los robots tienen poderosos mecanismos de protección y su inteligencia está dirigida a las necesidades de los usuarios, lo que les dificulta "alucinar" respuestas incorrectas.
La generación de código será una de las áreas más transformadoras de la revolución de la IA y Factory tiene todas las herramientas necesarias para tener éxito.
*Equipo. Mattan, director ejecutivo de Factory, es un teórico de cuerdas en la Universidad de Princeton, donde imaginó singularidades de agujeros negros. Eno trabajó como ingeniero de aprendizaje automático en Hugging Face y manejó personalmente el tedioso proceso de ingeniería. Este es un equipo único.
Practicidad. Si bien los robots aún no pueden realizar tareas tan bien como los ingenieros humanos, aún pueden realizar tareas que los ingenieros odian. Los ingenieros pueden dejar el trabajo aburrido y repetitivo en manos de la fábrica.
velocidad. Factory ha logrado algo notable en tan sólo unos meses. Mientras otros todavía imaginaban ingenieros en inteligencia artificial, Matan y Eno ya los estaban desarrollando. Están mejorando rápidamente este producto que ya es excelente.
La historia del desarrollo humano se basa en la liberación de tareas repetitivas, permitiéndonos pasar a tareas más complejas. Cuando los humanos inventaron la agricultura, esencialmente liberaron nuestra capacidad de construir ciudades. Después de la Revolución Industrial, construimos cohetes que llevaron a los humanos a la luna. La próxima generación tiene la misión de liberar a los humanos del trabajo pesado en línea y ampliar aún más la frontera tecnológica.
Cuando el único límite es la imaginación humana, ¿qué construiremos a continuación?
— Markie Wagner, fundador y director ejecutivo de Delphi Labs
Traductor: Jane
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Sector de IA: avances tecnológicos recientes y oportunidades de inversión
Fuente: 36Kr Oficina de Traducción de Dios
Nota del editor: la tecnología de inteligencia artificial se está desarrollando a un ritmo rápido y hay muchas empresas de nueva creación en el campo de la inteligencia artificial que se han destacado. En este artículo, echemos un vistazo a qué nuevas empresas prometedoras de IA han sido elegidas por inversores como Sequoia Capital y Kleiner Perkins Caufield & Byers. Este artículo es de compilación y espero que pueda inspirarte.
Si solo tiene unos minutos libres, estas son las startups más interesantes sobre inteligencia artificial que los inversores, operadores y fundadores deberían conocer.
La inteligencia artificial es el hilo conductor de la historia tecnológica de este año. Desde la última serie "Qué mirar en IA", el campo ha seguido atrayendo capital, talento y atención. Por supuesto, no toda la atención es positiva. A pesar del entusiasmo generalizado por las capacidades de la tecnología, durante los últimos cuatro meses los pesos pesados de la industria han expresado sus preocupaciones y los reguladores han comenzado a idear algunas salvaguardas. En los próximos meses y años, la inteligencia artificial tendrá un impacto radical en nuestras vidas y creará nuevos ganadores y perdedores en todo el mundo.
Nuestra serie "Qué mirar" está diseñada para ayudar a los lectores a prepararse para los tiempos venideros y visualizar el futuro con mayor claridad. Este es un excelente punto de partida para quienes desean comprender las tecnologías que están surgiendo en la frontera de la inteligencia artificial y aprovechar los cambios que se están produciendo. Para ello, invitamos a los inversores y fundadores más destacados en el campo de la inteligencia artificial a presentar las startups que consideran más prometedoras.
1. Vida
Usando inteligencia artificial para mejorar la tecnología de FIV
En cualquier proceso reproductivo hay momentos que requieren la toma de decisiones humanas, y los dos vínculos más relevantes de la FIV son la "estimulación ovárica" y la "selección de embriones".
"Estimulación ovárica" se refiere a determinar la dosis de medicamento que recibe una paciente para estimular el crecimiento de los folículos en los ovarios y cuándo administrar una inyección desencadenante para estimular a los folículos a liberar óvulos. El momento del disparo es crucial; si es demasiado temprano, es posible que obtengas óvulos inmaduros; si es demasiado tarde, es posible que obtengas óvulos demasiado maduros o que no obtengas tantos óvulos como sea posible.
La "selección de embriones" se refiere a elegir qué óvulo fertilizado usar e implantar. Actualmente, los médicos y embriólogos, como la mayoría de los profesionales médicos, basan sus decisiones en una combinación de su propia experiencia y formación, sistemas de clasificación morfológica y prueba y error. Si la dosis o el momento no son correctos en un ciclo, lo ajustarán en el siguiente ciclo. Esto requiere una competencia profesional muy alta de los médicos y, en este punto, los médicos tienen distintos niveles de habilidad, y sus habilidades son muy importantes para los resultados. Para la fertilidad, un mercado con una oferta severamente limitada, eso significa un precio elevado, especialmente si se quieren ver resultados óptimos.
Alife está construyendo herramientas de inteligencia artificial para mejorar los resultados de la fertilización in vitro (FIV). La empresa utiliza herramientas de inteligencia artificial para proporcionar a los profesionales "superpoderes" para mejorar la precisión de su toma de decisiones aprovechando conjuntos masivos de datos de entrada y resultados. Ahora, a través de una interfaz sencilla, los médicos pueden ingresar las características de un paciente y recibir recomendaciones precisas en momentos clave del viaje de fertilidad, derivadas de los resultados de miles de ciclos anteriores. Estos conjuntos de datos provienen de grandes cantidades de información de pacientes que ya existen y mejoran a medida que cada paciente utiliza los productos Alife.
Estas herramientas cambiarán la naturaleza de la industria de la fertilidad. La investigación de Alife muestra que su modelo de aprendizaje automático puede ayudar a los médicos a optimizar el 50% del tiempo de activación y ayudar a recuperar un promedio de tres óvulos maduros más, dos óvulos fertilizados y un embrión más. Los productos de Alife pueden ampliar significativamente el acceso a los tratamientos de infertilidad, reduciendo los costos por paciente al reducir la dosis de los medicamentos necesarios y aumentando la tasa de éxito de los ciclos de FIV. También nivelaría las condiciones para los médicos, dando a aquellos que carecen de experiencia de primera mano acceso a una gama más amplia de conocimientos e información.
En última instancia, puede imaginarse las herramientas de Alife proporcionando toda la información para los momentos críticos de un proceso y permitiendo que otros profesionales operen, cambiando significativamente la estructura de costos y la disponibilidad de la industria. Es más, la medicina de precisión basada en datos, que aumenta (o eventualmente reemplaza) el juicio de una persona con recomendaciones personalizadas, no es exclusiva del mundo de la FIV. Hay miles de momentos como este en la medicina, en los que tenemos la oportunidad de utilizar datos para cambiar drásticamente los resultados y el acceso a procedimientos y tratamientos críticos.
—Rebecca Kaden, socia general, Union Square Ventures
2. Recoger
Búsqueda empresarial
En el trabajo, encontrar exactamente la información que necesita cuando la necesita debería ser rápido y fácil. Dado que todo el mundo utiliza muchas aplicaciones para realizar su trabajo y, como resultado, genera una gran cantidad de datos y documentos, este no es siempre el caso. A medida que el “conocimiento” crece exponencialmente y la naturaleza del trabajo se vuelve cada vez más distribuida, cada vez lleva más tiempo encontrar el conocimiento existente. En otras palabras, es bastante difícil "buscar cosas" en el trabajo.
Para ayudar a los empleadores a resolver este problema, Arvind Jain y su equipo crearon Glean, una plataforma de búsqueda unificada en el lugar de trabajo impulsada por inteligencia artificial. Dota a los empleados de un asistente de trabajo intuitivo que les ayuda a encontrar exactamente lo que necesitan y a descubrir de forma proactiva lo que deben saber.
La misión de la empresa ha sido simple desde el principio: ayudar a las personas a encontrar respuestas a todas sus preguntas sobre el lugar de trabajo más rápido, con menos frustración y pérdida de tiempo. Pero los resultados de la empresa luego se expandieron mucho más allá de la búsqueda. Por ejemplo, Glean no solo busca en todas las aplicaciones y bases de conocimiento del lugar de trabajo (Slack, Teams, Google Drive, Figma, Dropbox, Coda, etc.), sino que también comprende el lenguaje natural y el contexto, según los roles de las personas y las relaciones internas y externas de la empresa. Personaliza al usuario. interacciones. Muestra de forma inteligente la información más popular y verificada de su empresa, lo que le ayuda a descubrir lo que sabe su equipo y a mantener la coherencia, todo ello de forma autorizada.
A medida que las organizaciones se vuelven más distribuidas y el conocimiento se fragmenta más, los asistentes de trabajo intuitivos como Glean ya no son una herramienta agradable sino una herramienta fundamental para mejorar la productividad de los empleados. El crecimiento de la empresa derribará las barreras que impiden el progreso y creará una experiencia laboral más positiva y productiva.
Además, la tecnología de búsqueda de Glean le permite llevar la IA generativa al lugar de trabajo mientras cumple con los estrictos requisitos de permisos y gestión de datos de la empresa. Hoy en día, uno de los principales obstáculos que impide que las empresas entren en producción aplicaciones de IA es su incapacidad para implementar controles de gobernanza adecuados. Al insertar permisos de datos en tiempo real en el entorno local de una empresa, Glean se ha convertido en la solución ideal para ayudar a las empresas a resolver problemas de gobernanza a escala y permitirles aprovechar con confianza sus datos internos para la capacitación e inferencia de modelos, aprovechando así un nivel empresarial. Plataforma de datos de IA/El papel del almacenamiento vectorial.
3. Lanza
Almacenamiento y Gestión de Datos Multimodales
Todos hemos jugado a Midjourney y la mayoría de nosotros hemos visto una demostración de GPT-4. Midjourney (texto a imagen) y GPT-4 (imagen a texto/código) ilustran las posibilidades cuando los modelos se vuelven multimodales, uniendo diferentes formas de medios como texto, imágenes y audio. Si bien gran parte de la moda actual de la IA gira en torno a modelos basados en texto, los modelos multimodales son clave para construir representaciones más precisas del mundo.
A medida que nos embarcamos en la próxima ola de aplicaciones de IA en industrias como la robótica, la atención médica, la manufactura, el entretenimiento y la publicidad, cada vez más empresas se basarán en modelos multimodales. Empresas como Runway y Flair.ai son buenos ejemplos de líderes emergentes en sus campos que han visto una demanda masiva de sus productos por parte de los usuarios, mientras que empresas existentes como Google han comenzado a lanzar capacidades multimodales similares.
Sin embargo, el uso de modelos multimodales plantea un desafío: ¿cómo almacenar y gestionar los datos? Los formatos de almacenamiento tradicionales como Parquet no están optimizados para datos no estructurados, por lo que los equipos grandes de modelos de lenguaje experimentan un rendimiento lento al cargar, analizar, evaluar y depurar datos. Además, los flujos de trabajo de modelos de lenguaje grandes son más propensos a errores sutiles debido a la falta de una única fuente de verdad. Lance es la última empresa que ha surgido para abordar este desafío. Empresas como Midjourney y WeRide están convirtiendo conjuntos de datos a escala de petabytes al formato Lance, lo que proporciona importantes mejoras de rendimiento y costos de almacenamiento incrementales de un orden de magnitud menores en comparación con formatos tradicionales como Parquet y TFRecords.
Lance no se limita al almacenamiento: ha reconocido la necesidad de reconstruir toda su pila de gestión de datos para alinearse mejor con el mundo hacia el que nos dirigimos, donde los datos multimodales y no estructurados se convertirán en el activo más valioso de una empresa. Su primer producto de plataforma, LanceDB (actualmente en versión beta privada), proporciona una experiencia integrada perfecta para los desarrolladores que buscan incorporar funcionalidad multimodal en sus aplicaciones.
4. Seguridad anormal
Contener la ola de ciberataques mejorados por IA
Soy un optimista descarado cuando se trata de IA generativa, pero no soy ingenuo al respecto. Por ejemplo, me preocupa la proliferación de ataques de "ingeniería social", como el phishing, que a menudo utiliza el correo electrónico para extraer información confidencial. Desde que ChatGPT se hizo popular el año pasado, la incidencia de este tipo de ataques ha aumentado drásticamente.
El año pasado, el número de ataques por cada 1.000 personas aumentó de menos de 500 a más de 2.500, según Abnormal Security. La sofisticación de los ataques también está aumentando dramáticamente. Así como cualquier estudiante puede usar ChatGPT para escribir un ensayo perfecto, ChatGPT también se puede usar para enviar mensajes fraudulentos gramaticalmente perfectos y peligrosamente personalizados.
Según el FBI, estos ataques dirigidos a "comprometer el correo electrónico empresarial" han causado más de 50 mil millones de dólares en pérdidas desde 2013. Y va a empeorar. Cada día, innumerables ciberdelincuentes y otros malos actores explotan herramientas de sombrero negro como “WormGPT”, un chatbot diseñado para extraer datos de malware con el fin de orquestar las campañas de fraude más convincentes y a gran escala para llevar a cabo actividades fraudulentas.
Afortunadamente, los cofundadores de Abnormal, Evan Reiser y Sanjay Jeyakumar, están trabajando arduamente para utilizar la inteligencia artificial para combatir esta amenaza. Puedes pensar en esto como usar IA para luchar contra la IA. Históricamente, los sistemas de seguridad del correo electrónico escaneaban en busca de firmas de mal comportamiento conocido, como direcciones IP específicas o intentos de acceder a información de identificación personal (PII).
Aprovechando el poder de la inteligencia artificial, Abnormal subvierte todo esto. Debido a que muchos ataques parecen legítimos gracias a la inteligencia artificial, el enfoque de Abnormal es comprender completamente el buen comportamiento conocido para que se noten incluso las desviaciones sutiles. La empresa utiliza modelos de lenguaje a gran escala para construir representaciones detalladas de su funcionamiento interno y externo digital, como quién habla normalmente entre sí y con qué contenido es probable que interactúen. Si mi socio Reid Hoffman me enviara un correo electrónico y dijera: "Oye, envíame la información más reciente sobre Inflection.AI". El motor de IA de Abnormal lo descubriría rápidamente. Reed rara vez comienza con "hey", rara vez envía una sola oración. y nunca me ha pedido que le envíe un archivo sobre Inflection.AI. (¡Como cofundador y miembro de la junta directiva de la empresa, él tenía más acceso a estos documentos que yo!).
No es sorprendente que, a medida que las preocupaciones de seguridad en torno a la IA generativa continúan creciendo, la demanda de los clientes empresariales de Abnormal se haya acelerado. Creo que el éxito de Abnormal es muy gratificante porque ha podido aprovechar la IA muy rápidamente para abordar problemas que la IA está acelerando. En períodos de cambio tecnológico disruptivo, los malos actores a menudo disfrutan de largas ventajas como primeros en actuar. Después de todo, pueden aprovechar la innovación sin tener que preocuparse por la calidad del producto, la seguridad o los reguladores que aún no han promulgado nuevas leyes.
5. Polvo
Empoderar a los trabajadores del conocimiento
Está claro que los grandes modelos lingüísticos mejorarán la eficiencia de los trabajadores del conocimiento. Pero no está claro exactamente cómo se haría eso. Dust está tratando de resolver eso. Los gestores del conocimiento son de poca ayuda dentro de la empresa si no pueden acceder a los datos internos. Por eso, Dust creó una plataforma que indexa, incorpora y actualiza en tiempo real los datos internos de una empresa (Notion, Slack, Drive, GitHub) y los expone a productos impulsados por grandes modelos de lenguaje.
Los cofundadores de Dust, Gabriel Hubert y Stanislas Polu, vendieron una empresa a Stripe y trabajaron allí durante cinco años. Han visto de primera mano cómo las empresas de rápido crecimiento luchan con la escala. Han visto de primera mano lo que se llama "deuda de información" y ahora se centran en aplicar grandes modelos de lenguaje para resolver algunos de los principales problemas asociados con ella. Actualmente, Dust está explorando las siguientes aplicaciones en su plataforma:
6. Caja de etiquetas
Divulgar datos comerciales
El “aumento del big data” se ha producido durante más de 20 años y, aunque las empresas están ingiriendo continuamente más datos que nunca, muchas empresas todavía luchan por utilizar estos datos para obtener información a partir de modelos de inteligencia artificial. El procesamiento y la interpretación de datos siguen siendo las partes más tediosas y costosas del proceso de IA, pero también las más importantes para obtener resultados de alta calidad. Incluso con el aumento de grandes modelos de lenguajes previamente entrenados, las empresas seguirán teniendo que centrarse en utilizar sus propios datos patentados (en múltiples modalidades) para crear IA generativa en una posición única para ofrecer servicios e información diferenciados y mejorar la eficiencia operativa.
Labelbox resuelve este desafío simplificando la forma en que las empresas introducen conjuntos de datos en modelos de IA. Ayuda a los equipos de datos y aprendizaje automático a encontrar los datos correctos, procesarlos e interpretarlos, enviar modelos a las aplicaciones y medir y mejorar continuamente el rendimiento.
La nueva plataforma de Labelbox aprovecha la inteligencia artificial generativa. Model Foundry permite a los equipos experimentar rápidamente con modelos básicos de IA de los principales proveedores de código abierto y cerrado, lo que les permite preetiquetar datos y experimentar rápidamente con solo unos pocos clics. De esta manera, pueden comprender qué modelo funciona mejor con sus datos. Model Foundry genera automáticamente métricas de rendimiento detalladas para cada experimento ejecutado mientras versiona los resultados.
El impacto podría ser de gran alcance. Tradicionalmente, los humanos han pasado días completando una tarea simple pero que requiere mucho tiempo, como clasificar una lista de comercio electrónico que contiene varios párrafos de texto. Con GPT-4, esta tarea se puede completar en cuestión de horas. Model Foundry permite a las empresas descubrir estas formas eficientes por sí mismas.
Este no es el único ejemplo. Los primeros resultados muestran que más del 88% de las tareas de etiquetado pueden acelerarse mediante uno o más modelos base. Labelbox permite a cualquier persona preetiquetar datos con solo unos pocos clics, sin la necesidad de codificar e ingresar datos en un modelo. Esta herramienta está diseñada para capacitar a los equipos para que trabajen en colaboración y aprovechen la experiencia multifuncional para mantener la supervisión manual del control de calidad de los datos. Esta capacidad democratiza el acceso a la inteligencia artificial al permitir que los expertos en modelos de lenguaje y las pequeñas y medianas empresas evalúen fácilmente modelos, enriquezcan conjuntos de datos y colaboren para crear aplicaciones inteligentes.
Se ha demostrado que Labelbox reduce significativamente los costos y mejora la calidad de los modelos para las empresas más grandes del mundo, incluidas Walmart, Procter & Gamble, Genentech y Adobe.
7. Pista
Nueva Suite Creativa
La inteligencia artificial está en todas partes y se está convirtiendo cada vez más en una mercancía. En la mayoría de los casos, las empresas utilizan la IA como chatbots para enriquecer las aplicaciones existentes. Pocas aplicaciones de IA están reinventando las experiencias de los productos, utilizando la tecnología para cambiar fundamentalmente la forma en que interactuamos con los productos, tal como el motor de búsqueda de Google cambió la forma en que navegamos por Internet o Instagram cambió la forma en que compartimos fotos desde nuestros teléfonos. Estas aplicaciones de IA requieren una comprensión profunda de la experiencia del usuario existente, un pensamiento visionario sobre los productos y tecnología de vanguardia.
Runway es un ejemplo destacado de una empresa que utiliza la investigación de IA aplicada para reimaginar experiencias creativas y crear una suite creativa completamente nueva.
Desde octubre de 2022, Runway ha desarrollado más de 30 "herramientas mágicas" de IA que cubren video, imágenes, 3D y texto, y atienden todos los aspectos del proceso creativo, desde la preproducción hasta la postproducción. Su base de clientes incluye empresas Fortune 500 y Global 2000, como The Late Show with Stephen Colbert de CBS, New Balance, Harbor Picture Video, Publicis) y Google. La plataforma también se ha utilizado para editar películas nominadas al Oscar, como el éxito de Hollywood Everything Everywhere All at Once.
8. Nuevo límite
Remodelando el destino celular
Las células son los sistemas informáticos más complejos de la Tierra. Al igual que los chips de computadora, el ADN se compone de unidades básicas que crean funciones complejas. A diferencia de los códigos basados en bits, los códigos basados en átomos son aleatorios y jerárquicos. Un sistema depende de otro, que a su vez depende de otros sistemas físicos, cada uno de los cuales se ve afectado por el calor, la acidez y las moléculas del microambiente de la célula.
A pesar de estas interdependencias, el código máquina celular (ADN) puede ejecutar eficientemente diferentes programas. Aunque las células del hígado y las células de la piel contienen el mismo genoma, estos tipos de células se ven, se sienten y funcionan de manera diferente. ¿Por qué? Porque están ejecutando diferentes programas epigenéticos.
En 2006, Takahashi y otros utilizaron una combinación de cuatro proteínas del factor de transcripción (TF) para reprogramar células maduras en células madre, siendo pioneros en el campo de la reprogramación epigenética. Los factores de transcripción son proteínas que regulan los genes, cambiando esencialmente el "programa" que se está ejecutando. El descubrimiento de Takahashi y Yamanaka condujo a la creación de células madre pluripotentes inducidas (iPSC) y les valió el Premio Nobel. Desde entonces, muchos grupos de investigación han comenzado a aplicar combinaciones únicas de TF para cambiar los estados celulares, rejuvenecer las células dañadas y restaurar los fenotipos celulares juveniles.
Si bien la reprogramación epigenética es cada vez más manejable, todavía no es un asunto trivial. El equipo tuvo que discernir qué combinación de TF era eficaz en la transición de las células del estado A al estado B deseado. Por ejemplo, futuras combinaciones de TF pueden permitirnos convertir células enfermas en células sanas, desarrollando así una nueva clase de fármacos. Necesitamos pantallas de reprogramación a gran escala porque en muchas áreas de aplicación no se conoce la combinación exacta de TF. Hay más de 1500 TF humanos nativos, por lo que se necesita un método de búsqueda más eficiente. Creemos que NewLimit está diseñando ese enfoque.
Impulsado por avances en secuenciación unicelular y tecnologías de aprendizaje automático, NewLimit está transformando una disciplina que antes era manual en ciencia basada en datos. La empresa tiene una saludable división del trabajo entre biólogos moleculares y biólogos computacionales, sentando las bases culturales necesarias para construir una plataforma de circuito cerrado cada vez más eficiente. Combinando experiencia y lecturas multimodales (scRNA-Seq, scATAC-Seq, etc.), NewLimit tiene como objetivo descubrir remodeladores terapéuticos para tratar enfermedades previamente intratables.
En cada ronda de experimentos, NewLimit utiliza tecnología de lenguaje de máquina para:
Además de su destacado equipo, destreza técnica y visión ambiciosa, también admiramos el espíritu pragmático de NewLimit. Si bien la empresa no ha compartido públicamente detalles de su estrategia comercial inicial, creemos que este enfoque es creativo, reduce razonablemente el riesgo y tiene el potencial de ser transformador para la humanidad. El equipo fundador está de acuerdo en que las plataformas biotecnológicas pueden compararse con proyectos científicos costosos sin generar activos a corto plazo. Para ello, NewLimit ha sido transparente y catalogado sus avances tecnológicos desde sus inicios.
9. Junto a la piscina
Inteligencia Artificial Básica para el Desarrollo de Software
OpenAI se centra en la inteligencia artificial general, DeepMind se centra en los descubrimientos científicos y el tercer caso de uso fundamental de la inteligencia artificial es la comprensión y la creación de software.
GPT-4 está arraigado en los flujos de trabajo de desarrolladores tanto experimentados como novatos. Pero este cambio de paradigma está todavía en sus inicios. Extrapolando lo ocurrido en los últimos meses, la programación asistida por IA pronto se volverá omnipresente. A medida que esta tendencia se desarrolle aún más, el lenguaje natural se convertirá en la base abstracta sobre la que se construye el software.
Aunque otras empresas han lanzado modelos de código puro a gran escala como StarCoder, ningún método se ha acercado todavía al rendimiento de GPT-4. Creo que esto se debe a que un modelo entrenado únicamente con código no puede producir capacidades sólidas de desarrollo de software. Así conocí a Poolside. La empresa fue fundada por Jason Warner, ex director de tecnología de GitHub, y Eiso Kant, ex fundador de source{d}, la primera empresa de inteligencia artificial de códigos de investigación del mundo, Smart Company.
Poolside es único porque adopta el enfoque del modelo base OpenAI pero se centra en una sola función: la generación de código. Su estrategia tecnológica depende del hecho de que el código se pueda ejecutar, lo que permite una retroalimentación inmediata y automática durante el proceso de aprendizaje. Esto permite el aprendizaje por refuerzo mediante la ejecución de código, una alternativa convincente al aprendizaje por refuerzo basado en retroalimentación humana (RLHF). Esto es algo que Esso comenzó a explorar ya en 2017.
10. Mistral
Competidores de OpenAI en Francia
Recientemente, París se ha visto iluminada por una explosión de proyectos en el campo de la inteligencia artificial generativa. Quizás te preguntes ¿por qué? Mi opinión es que París tiene el mayor grupo de talentos de clase mundial en IA generativa que está fuera del horizonte de eventos de OpenAI. De estos proyectos, el más audaz es sin duda Mistral. Mistral fue fundada por Guillaume Lample, Arthur Mensch y Timothe Lacroix con la misión de construir los mejores modelos de lenguaje de código abierto. El objetivo es construir un ecosistema próspero en torno a estos modelos.
Conozco a Guillaume desde hace cuatro años y ambos hemos estado profundamente involucrados en la aplicación de grandes modelos de lenguaje a áreas de las matemáticas, especialmente las matemáticas formales. Mientras trabajábamos en OpenAI y Meta, desarrollamos una relación competitiva amistosa. Guillaume es uno de los investigadores más talentosos con los que he tenido el placer de trabajar y tuve el privilegio de verlo pasar de la investigación en Meta a la fundación de Mistral. En el proceso también conocí a Arthur Mensch. Siempre me ha impresionado su trabajo, especialmente Chinchilla, que redefinió lo que significa entrenar de manera eficiente grandes modelos de lenguaje, y RETRO, un enfoque para el modelado de lenguaje mejorado con recuperación que, yo diría, aún no está completamente explorado.
Ahora, profundicemos en lo que hace que Mistral Mistral. La visión de la startup es construir un ecosistema basado en el mejor modelo de código abierto de su clase. Este ecosistema servirá como plataforma de lanzamiento para proyectos, equipos y empresas, acelerando el ritmo de la innovación y el uso creativo de grandes modelos lingüísticos.
Tomemos como ejemplo el aprendizaje por refuerzo basado en la retroalimentación humana (RLHF). Normalmente, realizar RLHF lleva mucho tiempo y, por tanto, es costoso. Implica "marcar" manualmente las acciones de la IA, lo que puede requerir mucho trabajo. El esfuerzo sólo valdrá la pena si la promesa de un modelo de IA es lo suficientemente buena. Para una gran empresa como OpenAI, invertir en este proceso tiene sentido y la empresa tiene los recursos para hacerlo realidad. Pero las comunidades tradicionales de código abierto normalmente necesitan un "líder" que dé un paso adelante y asuma esta importante responsabilidad.
Mistral tiene la oportunidad de hacer precisamente eso, invirtiendo en un modelo de código abierto para RLHF. Al hacerlo, Mistral abrirá la puerta a una explosión de innovación en el Cámbrico. Los desarrolladores de código abierto tendrán acceso a modelos claramente etiquetados que podrán adaptar y personalizar según diferentes necesidades. El ganador final será el mercado en general y tendremos acceso a casos de uso más específicos y atractivos que los que una empresa cerrada podría producir por sí sola.
Quien tenga el mejor modelo de código abierto atraerá más interés y valor. Soy optimista con respecto a Mistral porque el equipo está empujando activamente la frontera de eficiencia/rendimiento. Al mismo tiempo, el talento de Mistral en este ámbito es, con diferencia, el mejor del mundo.
11. Sereacta
Robots industriales más inteligentes
A menudo escuchamos predicciones de que, a largo plazo, la inteligencia artificial y la robótica aumentarán o automatizarán las tareas humanas. Hoy en día, esto se ha convertido cada vez más en un imperativo empresarial urgente.
Para 2030, se espera que la población europea en edad de trabajar disminuya en 13,5 millones y los costos laborales estén aumentando al ritmo más rápido en más de 20 años. Con el auge del comercio electrónico, los almacenes están bajo más presión que nunca y cada vez es más difícil para las empresas seguir siendo competitivas.
El 55% de los gastos operativos del almacén provienen de la preparación de pedidos, pero la situación no es optimista para las empresas que buscan pasar a sistemas automatizados. Ninguna de las aplicaciones llamativas que conocemos en SaaS (software como servicio) impulsado por IA, o la gran cantidad de productos de código abierto que vemos en otras partes del ecosistema, aún no se ha aplicado a la robótica.
En cambio, las empresas que buscan automatizar la recolección y el empaque se enfrentan a la elección de soluciones robóticas costosas e inflexibles. Deben navegar por una gran cantidad de interfaces patentadas que requieren mucho tiempo de programación y experiencia. Estos sistemas también tienen dificultades para hacer frente a las mezclas cambiantes de productos, requieren intervención humana regular y funcionan mal al manejar situaciones extremas.
Secret resuelve estos problemas. Su software se basa en potentes entornos simulados y entrena brazos robóticos para comprender los matices espaciales y físicos de cualquier entorno potencial del mundo real. Una vez implementado, el sistema se optimizará aprendiendo continuamente de datos del mundo real. También significa que pueden afrontar el desafío de agarrar artículos tradicionalmente difíciles, como productos electrónicos, textiles, frutas, azulejos y madera.
Lo más interesante es que su pila de robótica utiliza grandes modelos de lenguaje para permitir el control intuitivo de los robots en lenguaje natural. Desarrollaron un modelo de convertidor llamado "PickGPT" que permite a los usuarios dar instrucciones y comentarios al robot mediante voz o texto. De esta forma, cualquiera puede pedirle al robot que realice una tarea deseada, independientemente de su nivel de conocimientos técnicos.
Secret combina las dos áreas de especialización de sus cofundadores. El director ejecutivo Ralf Gulde ha trabajado en la intersección de la inteligencia artificial y la robótica, mientras que el director tecnológico Marc Tusher se especializa en aprendizaje profundo. La pareja llevó a cabo una investigación revisada por pares sobre estos temas en la Universidad de Stuttgart, una de las universidades más prestigiosas de Alemania en automatización y fabricación industrial.
A pesar de ser una empresa joven, Sereact ya ha atraído a una lista impresionante de socios, entre ellos Daimler Truck, Schmalz, Zenfulfillment, Zimmer Group) y Material Bank. Esto indica que existe una enorme oportunidad de mercado potencial en la industria de recolección y embalaje.
Más allá de los casos de uso obvios en los almacenes de comercio electrónico, ya sea preparando pedidos o desempacando cajas, existe una variedad de otros casos de uso. Por ejemplo, en la fabricación tradicional existe un proceso que requiere mucho tiempo llamado ensamblaje, que implica recolectar laboriosamente las piezas delicadas necesarias para el ensamblaje. Históricamente, los brazos robóticos han tenido dificultades para agarrar piezas pequeñas y clasificar piezas individuales en entornos desordenados. El software de Sereact puede identificar estas piezas y seleccionar la pinza correcta para seleccionarlas.
12. Lamini
Motor de modelo de lenguaje a gran escala hecho a medida
Ahora, todas las empresas están intentando integrar la inteligencia artificial en su negocio. Las empresas más grandes del mundo reconocen el potencial de la inteligencia artificial, y el 20% de los directores ejecutivos del S&P 500 mencionan la IA durante sus llamadas sobre ganancias del primer trimestre. Los modelos de lenguaje grandes pueden mejorar significativamente la eficiencia empresarial al acelerar funciones centrales como la atención al cliente, las ventas salientes y la codificación. Los modelos de lenguaje grandes también pueden mejorar las experiencias de los productos principales al responder las preguntas de los clientes con asistentes basados en IA o crear nuevos flujos de trabajo generativos de IA para deleitar a los clientes.
Dado que las grandes empresas tienden a tardar en adoptar nuevas tecnologías, nos sorprendió la rapidez con la que las empresas comenzaron a construir con IA. No es sorprendente que muchas empresas quieran crear sus propios modelos y soluciones de IA internamente. Cada empresa tiene un tesoro propio de datos de clientes, a menudo como parte de su negocio principal. Estas empresas ven riesgos al enviar sus datos más valiosos a API de modelos subyacentes o a nuevas empresas cuya confiabilidad es incierta. Incluso independientemente de los problemas de privacidad de los datos, los modelos de lenguaje públicos a gran escala, como GPT-4 o Claude, están entrenados completamente en datos abiertos y, por lo tanto, carecen de capacidades de personalización para casos de uso y segmentos de clientes específicos de la empresa.
Algunas empresas de tecnología, como Shopify y Canva, han formado "AI Tiger Teams" internos para utilizar modelos de código abierto ya preparados para integrar la inteligencia artificial en todas las partes del negocio. Sin embargo, la mayoría de las empresas no tienen los recursos ni los investigadores de IA experimentados para construir e implementar modelos de lenguaje propietarios a gran escala basados en sus propios datos. Se dan cuenta de que esta ola de IA podría ser un momento transformador para el futuro de su negocio, pero hasta ahora no han podido aprovechar ni controlar su propio desarrollo de IA.
Por eso estamos tan entusiasmados con lo que Sharon Zhou, Greg Diamos y su equipo están haciendo en Lamini. Lamini es un motor de modelos de lenguaje a gran escala que facilita a los desarrolladores entrenar, ajustar, implementar y mejorar rápidamente sus propios modelos con comentarios humanos. Esta herramienta proporciona una experiencia de desarrollo agradable que abstrae las complejidades de los modelos de IA y, lo que es más importante, permite a las empresas crear soluciones de IA a partir de sus propios datos sin tener que contratar investigadores de IA ni correr el riesgo de fuga de datos. Trabajamos con Sharon y Greg por primera vez el otoño pasado. Desde entonces, hemos tenido la oportunidad de apoyar a este equipo fundador técnicamente competente y centrado en el cliente a medida que hacen realidad su ambiciosa visión de transformar la forma en que las empresas adoptan la IA.
Específicamente, implementar modelos de lenguaje grandes privados con Lamini ofrece una amplia gama de ventajas en comparación con el uso de soluciones públicas. Tener un equipo de ingeniería interno que se encargue del proceso de construcción garantiza la privacidad de los datos y permite una mayor flexibilidad en la selección del modelo y en toda la pila de datos y computación. Los modelos creados con Lamini también reducen los artefactos, reducen la latencia, garantizan tiempos de ejecución confiables y costos más bajos en comparación con las API disponibles en el mercado. Estas mejoras de rendimiento provienen de conocimientos técnicos básicos que el equipo de Lamini incorpora al producto basándose en décadas de investigación y experiencia en la industria en torno a modelos de IA y optimización de GPU.
13. Fábrica
Su “robot” de codificación
Hoy en día, si quieres que una computadora haga algo por ti, tienes que traducir tus pensamientos al "lenguaje informático", un código de hipertexto que un compilador pueda entender. Para convertirte en ingeniero, debes torcer tu cerebro como una máquina. Sin embargo, estamos llegando a un punto de inflexión en el que la IA puede convertir el lenguaje humano en código. Es probable que la transición de ingenieros humanos a ingenieros digitales se convierta en uno de los puntos de inflexión tecnológicos más importantes de nuestras vidas.
Todavía estamos en las primeras etapas de esta transformación. Herramientas de inteligencia artificial como BabyAGI y AutoGPT han capturado la imaginación del público. Pero si bien los asistentes de codificación como Github Copilot representan una mejora, todavía son muy limitados y sirven principalmente como autocompletado para ideas ya implementadas en el código.
La fábrica es diferente. La empresa fue fundada en 2023 por el ex teórico de cuerdas Matan Grinberg y el ingeniero de aprendizaje automático Eno Reyes. Cuando conocí a Mattan, me atrajo inmediatamente su visión: un futuro en el que los ingenieros puedan hacer que construir cosas sea divertido delegando tareas molestas y concentrándose en problemas difíciles. Para ello, Matan y Eno crearon "robots" de codificación autónomos.
Los bots son ingenieros de inteligencia artificial que se encargan de tareas diarias como revisión, depuración y refactorización de código. A diferencia de los productos existentes, los bots de Factory no requieren que usted haga nada; pueden revisar el código de forma independiente, manejar errores y responder preguntas. También puede utilizar bots como desarrolladores junior, utilizándolos para intercambiar ideas y compartir el trabajo de funciones. Los robots tienen poderosos mecanismos de protección y su inteligencia está dirigida a las necesidades de los usuarios, lo que les dificulta "alucinar" respuestas incorrectas.
La generación de código será una de las áreas más transformadoras de la revolución de la IA y Factory tiene todas las herramientas necesarias para tener éxito.
*Equipo. Mattan, director ejecutivo de Factory, es un teórico de cuerdas en la Universidad de Princeton, donde imaginó singularidades de agujeros negros. Eno trabajó como ingeniero de aprendizaje automático en Hugging Face y manejó personalmente el tedioso proceso de ingeniería. Este es un equipo único.
La historia del desarrollo humano se basa en la liberación de tareas repetitivas, permitiéndonos pasar a tareas más complejas. Cuando los humanos inventaron la agricultura, esencialmente liberaron nuestra capacidad de construir ciudades. Después de la Revolución Industrial, construimos cohetes que llevaron a los humanos a la luna. La próxima generación tiene la misión de liberar a los humanos del trabajo pesado en línea y ampliar aún más la frontera tecnológica.
Traductor: Jane