# Usa un'immagine base leggera FROM python:3.10 # Installa dipendenze RUN pip install streamlit requests # Installa Ollama RUN curl -fsSL https://ollama.com/install.sh | sh # Scarica il modello (puoi cambiare "hf.co/hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF" con altri modelli supportati) RUN ollama pull hf.co/hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF # Espone la porta 8501 di Streamlit e 11434 di Ollama EXPOSE 8501 11434 # Avvia Ollama in background e poi Streamlit CMD ollama serve & streamlit run app.py --server.port 8501 --server.address 0.0.0.0