Docker och Neo4j, LangChain och Ollama lanserar ny GenAI-stack för utvecklare
Hem SÄKERHET Docker och Neo4j, LangChain och Ollama lanserar en ny GenAI-stack för utvecklare

Docker och Neo4j, LangChain och Ollama lanserar en ny GenAI-stack för utvecklare

Publicerat av: Redaktionen

Säker och färdig att koda “direkt ur lådan” låter utvecklare komma igång med GenAI-appar på några minuter.

På sin årliga globala utvecklarkonferens DockerCon i går kväll, tillkännagav Docker, Inc. tillsammans med Neo4j, LangChain och Ollama lanseringen av en ny GenAI-stack som är framtagen för att hjälpa utvecklare att komma igång med generativa AI-applikationer på några minuter.

GenAI-stacken är förkonfigurerad, redo att kodas och säker och består av stora språkmodeller från Ollama, vektor- och grafdatabaser från Neo4j och LangChains ramverk. Sammantaget ska GenAI-stacken ta bort behovet av att leta efter, sätta ihop och konfigurera teknik från olika källor. Docker tillkännagav idag samtidigt sin första AI-drivna produkt, Docker AI.

”Många utvecklare är entusiastiska över möjligheterna med GenAI, men förändringstakten, antalet leverantörer och den stora variationen i teknikstackar gör det svårt att veta var och hur man ska börja”, säger Dockers VD Scott Johnston. ”Den här nyheten förenklar detta och gör det möjligt för utvecklare att komma igång snabbt och säkert med Dockers verktyg, innehåll och tjänster som de redan känner till, tillsammans med partnerteknik som ligger i framkant av apputveckling för generativ AI”.

GenAI-stacken finns från och med nu tillgänglig i “Learning Center” i Docker Desktop AI och på GitHub https://github.com/docker/genai-stack och tar upp populära GenAI-användningsfall med hjälp av pålitligt innehåll från öppen källkod på Docker Hub. Följande komponenter ingår:

  • Förkonfigurerade LLM med öppen källkod som Llama 2, Code Llama, Mistral samt modeller som OpenAI:s GPT-3.5 och GPT-4.
  • Hjälp från Ollama för utvecklare att komma igång lokalt med LLM-program med öppen källkod.
  • Neo4j som standarddatabas för graf- och inbyggd vektorsökning som avslöjar explicita och implicita mönster och relationer i data, vilket gör AI/ML-modeller snabbare och mer exakta och fungerar som långtidsminne för dessa modeller.
  • Docker och Neo4j, LangChain och Ollama lanserar ny GenAI-stack för utvecklareNeo4j-kunskapsgrafer som fungerar som kunskapsbas för att grunda LLMs för mer exakta GenAI-förutsägelser och resultat.
  • LangChain-orkestrering mellan LLM, applikation och databas med vektorindex, och som fungerar som ramverk för att utveckla kontextmedvetna resonemangsapplikationer som drivs av LLMs.
  • Samt en mängd stödverktyg, kodmallar, vägledningar och bästa praxis för GenAI.

GenAI-stacken är enkel att installera och erbjuder utvecklare många möjligheter som exempelvis enkel datainläsning och vektorindexering, så att de smidigt kan importera data, skapa vektorindex, bädda in frågor och svar och lagra dem i vektorindexet. Vidare kan utvecklare göra förbättrade sökningar och resultatberikningar för applikationer som både kan sammanfatta data och visa upp kunskapsinhämtning genom flexibla kunskapsgrafer. De kan också generera olika svar i olika format, t.ex. punktlistor, tankekedjor, GitHub-frågor, PDF-filer, dikter med mera. Dessutom kan utvecklare jämföra resultaten mellan LLM:er på egen hand, LLM:er med vektor och LLM:er med vektor och integrering av kunskapsgrafer.

”Drivkraften bakom det här kollektiva initiativet var den gemensamma viljan att stärka utvecklare och underlätta för dem att bygga GenAI-stödda applikationer och lägga till GenAI-funktioner i befintliga applikationer. Vi är väldigt glada över de möjligheter som det här kommer innebära för miljontals utvecklare,” säger Emil Eifrém, medgrundare och VD, Neo4j.

”Allt förändrades i år då AI gick från att vara ett område för specialister till något som många av oss använder varje dag. Utbudet av verktyg är dock väldigt fragmenterat och det krävs bra paketering för att utvecklare på bred front ska kunna börja bygga AI-drivna appar på riktigt. GenAI-stacken som Docker, Neo4j, LangChain och Ollama nu erbjuder ger den typ av konsekvent enhetlig upplevelse som gör utvecklare produktiva med nya verktyg och metoder, så att vi får se fler utvecklare som inte bara använder AI utan också bygger nya appar med AI:n,” säger James Governor, chefsanalytiker och grundare av den utvecklarinriktade analysfirman Redmonk.

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00