Está en la página 1de 3

Texto a SQL

by LLAMA 2 (Hugging Face) & Google Colab

Club de Chicas Programadoras


Área: Inteligencia Artificial y Aplicaciones NO CODE
Mentores:
Jhenny Michelle Solis Herrera
Nicolas Emir Mejia Agreda
Antes de nada te felicito por haber tomado la decisión de tomar el reto de realizar este
proyecto.

¿Qué crearás?
En palabras cortas crearas un proyecto utilizando Python, librerías y el modelo LLAMA 2 de
META.
¿Qué haré?
Una herramienta que ayudará a crear consultas SQL en base a texto.

TEMA O PROBLEMA
Desarrollar un proyecto utilizando un modelo pre entrenado de META (LLAMA 2) by
Hugging Face para crear un Generador de texto a consulta SQL

NOTA: No te enseñaré a hacerlo desde 0 pero te daré los recursos para que lo hagas
en base a una investigación prueba y error.

¡Empecemos!

Hugging Face Transformers es un marco de código abierto para el aprendizaje profundo


creado por Hugging Face.
Proporciona API y herramientas para descargar modelos pre entrenados de última
generación y ajustarlos para maximizar el rendimiento.
Estos modelos soportan tareas comunes en diferentes modalidades, como procesamiento
de lenguaje natural, visión por computador, audio y aplicaciones multimodales.
El uso de modelos pre entrenados puede reducir sus costes de computación y su huella de
carbono, y ahorrarle el tiempo y los recursos necesarios para entrenar un modelo desde

🤗
cero.
NO SABES lo que te PIERDES si no usas Hugging Face

Acelere la biblioteca para ayudar a los usuarios a entrenar fácilmente un modelo 🤗


Transformers en cualquier tipo de configuración distribuida, ya sean múltiples GPUs en una
máquina o múltiples GPUs en varias máquinas.

!pip install -q transformers langchain huggingface_hub accelerate

from huggingface_hub import login ← antes de esto debemos registrarnos en


https://huggingface.co/
login("AquiEscribeTuToken")

from langchain import HuggingFacePipeline

import transformers
import torch
model = "meta-llama/Llama-2-7b-chat-hf"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = transformers.pipeline("text-generation",
model=model,
tokenizer= tokenizer,
torch_dtype=torch.bfloat16,
device_map="auto",
max_new_tokens = 512,
do_sample=True,
top_k=10,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
)

llm = HuggingFacePipeline(pipeline = pipeline, model_kwargs = {'temperature':0})

from langchain import PromptTemplate, LLMChain

template = """
Create a SQL query snippet using the below text:
```{text}```
Just SQL query:
"""

prompt = PromptTemplate(template=template, input_variables=["text"])

llm_chain = LLMChain(prompt=prompt, llm=llm)

text = """ seleciona los paises que inicien con B en la columna "pais"
"""

print(llm_chain.run(text))

También podría gustarte