Llama 3 är Metas senaste stora språkmodell. Du kan använda den för olika ändamål, som att lösa dina frågor, få hjälp med dina skolläxor och projekt, etc. Genom att distribuera Llama 3 på din Windows 11-dator lokalt kan du använda den när som helst även utan tillgång till internet. Den här artikeln visar dig hur man installerar Llama 3 på en Windows 11 PC .
Hur man installerar Llama 3 på en Windows 11 PC
Att installera Llama 3 på en Windows 11-dator via Python kräver tekniska färdigheter och kunskaper. Vissa alternativa metoder låter dig dock distribuera Llama 3 lokalt på din Windows 11-maskin. Jag kommer att visa dig dessa metoder.
För att installera Llama 3 på din Windows 11-dator måste du utföra några kommandon i kommandotolken. Detta kommer dock bara att tillåta dig att använda dess kommandoradsversion. Du måste vidta ytterligare steg om du vill använda dess webbgränssnitt. Jag kommer att visa dig båda dessa metoder.
Distribuera Llama 3 på Windows 11 PC via CMD
För att distribuera Llama 3 på din Windows 11-dator måste du installera Ollama på din Windows-dator. Stegen för detsamma är följande:
- Besök Ollamas officiella hemsida .
- Klicka på Ladda ner knappen och välj sedan Windows .
- Klicka nu på Ladda ner för Windows knappen för att spara exe-filen på din PC.
- Kör exe-filen för att installera Ollama på din dator.
När Ollama har installerats på din enhet, starta om din dator. Den ska köras i bakgrunden. Du kan se det i systemfältet. Klicka nu på alternativet Modeller på Ollamas webbplats. Du kommer att se dess olika modeller.
Llama 3.1 är tillgänglig i följande tre parametrar:
- 8B
- 70B
- 405B
Den sista är den största parametern och kan uppenbarligen inte köras på en low-end PC. Llama 3.2 har följande två parametrar:
- IB
- 3B
Klicka på den Llama-version du vill installera på din PC. Till exempel, om du vill installera Llama 3.2, klicka på Llama 3.2. I rullgardinsmenyn kan du välja den parameter du vill installera. Efter det, kopiera kommandot bredvid och klistra in det i kommandotolken.
lava mjuk annons medveten gratis
För din bekvämlighet har jag skrivit båda kommandona för Llama 3.2-modellen. För att installera Llama 3.2 3B-modellen, kör följande kommando:
ollama run llama3.2:3b
För att installera Llama 3.2 1B-modellen, använd följande kommando:
ollama run llama3.2:1b
Öppna kommandotolken, skriv något av de ovan nämnda kommandona (baserat på dina krav) och tryck Skriva in . Det kommer att ta lite tid att ladda ner de nödvändiga filerna. Nedladdningstiden beror också på din internetanslutningshastighet. Efter slutförandet kommer du att se framgång meddelande i kommandotolken.
Skriv nu ditt meddelande för att använda Llama 3.2-modellen. Om du vill installera Llama 3.1-modellen, använd kommandona som finns på Ollamas webbplats.
när som helst videokonverterare
Nästa gång du startar kommandotolken använder du samma kommando för att köra Llama 3.1 eller 3.2 på din PC.
Att installera Llama 3 genom CMD har en nackdel. Det sparar inte din chatthistorik. Men om du distribuerar den på den lokala värden kommer din chatthistorik att sparas och du får ett bättre användargränssnitt. Nästa metod visar hur du gör det.
Distribuera Llama 3 Web UI på Windows 11
Att använda Llama 3 i en webbläsare ger ett bättre användargränssnitt och sparar även chatthistoriken jämfört med att använda den i CMD-fönstret. Jag kommer att visa dig hur du distribuerar Llama 3 i din webbläsare.
För att använda Llama 3 i din webbläsare bör Llama 3 till Ollama och Docker vara installerat på ditt system. Om du inte har installerat Llama 3 än, installera den med Ollama (som förklarat ovan). Ladda nu ner och installera Docker från dess officiella webbplats .
När du har installerat Docker, starta den och registrera dig för att skapa ett konto. Docker kommer inte att köras förrän du registrerar dig. Efter att du har registrerat dig, logga in på ditt konto på Docker-appen. Minimera Docker till systemfältet. Docker- och Ollama-appar bör köras i bakgrunden. Annars kan du inte använda Llama 3 i din webbläsare.
Öppna nu kommandotolken, kopiera följande kommando och klistra in det i kommandotolken:
ändra standard pdf-visningsfönster 10
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Ovanstående kommando kommer att ta lite tid att ladda ner de nödvändiga resurserna. Ha därför lite tålamod. När kommandot är klart, öppna Docker och välj Behållare avsnitt från vänster sida. Du kommer att se att en behållare skapas automatiskt med porten 3000:8080.
Klicka på porten 3000:8080. Detta öppnar en ny flik i din standardwebbläsare. Nu, registrera dig och logga in för att använda Llama 3 i din webbläsare. Om du ser adressfältet kommer du att se lokal värd: 3000 där, vilket innebär att Llama 3 finns lokalt på din dator. Du kan använda den utan internetanslutning.
Välj din Llama-chattmodell från rullgardinsmenyn. Om du vill lägga till fler chattmodeller av Llama 3 måste du installera den via Ollama med de nödvändiga kommandona. Därefter blir modellen automatiskt tillgänglig i din webbläsare.
All din chatthistorik kommer att sparas och tillgänglig på vänster sida. När du vill avsluta loggar du ut din session i din webbläsare. Efter det öppnar du Docker-appen och klickar på Stopp knappen för att stoppa Docker. Nu kan du stänga Docker.
När du vill använda Llama 3 i din webbläsare nästa gång, starta Ollama och Docker, vänta några minuter och klicka sedan på porten i Docker-behållaren för att öppna localhost-servern i din webbläsare. Logga nu in på ditt konto och börja använda Llama 3.
Jag hoppas att detta hjälper.
Kan Llama 3 köras på Windows?
Beroende på din dators hårdvarukonfiguration kan du köra Llama 3 på ditt system. Dess 1B-modell är den lättaste. Du kan installera och köra det på ditt system genom kommandotolken.
Hur mycket RAM-minne behöver jag för Llama 3?
Den lättaste modellen av Llama 3 är Llama 3.2 1B. Ditt system bör ha 16 GB RAM-minne för att köra Llama 3.2 1B-modellen. Utöver detta bör ditt system också ha en kraftig GPU. De högre modellerna av Llama 3 kräver mer systemresurser.
Läs nästa : Hur man använder Leonardo Phoenix AI .