Logo
ernando
ontem a openai provavelmente fez o maior lançamento de produto/recurso deles desse ano

apresentaram o modelo o1, modelo que - propositalmente - é mais lento que os demais, consegue raciocinar melhor que qualquer modelo já apresentado (fonte: benchmark openai)

sua aplicação em genética, economia e física quântica pode ser vista aqui: https://tinyurl.com/553xvc...

Jabá: aqui na Eva Analytics ( https://tinyurl.com/45958x... ) já integramos o modelo novo com nossos relatórios

qualquer cliente - seja um pagante ou não - está com acesso ao que existe de mais avançado em IA para CX
6 dias atrás
Avatar
IMG
{{i.name}} @{{i.username}}
#{{i.tag}} ({{i.posts}}) Posts
{{emoji_icon}}
IMG
{{og_data.title}}

{{og_data.description}}

{{og_data.url}}
Image
{{document.filename}}
GIF-Image
GIF-Image
GIF-Image

Criar uma nova enquete

{{v.value.length}}/25
{{progress_bar_value}}%
Matheus Silvério
6 dias atrás
Em resposta a ernando nesse post
Que dahora! Estava acompanhando por aqui também. Ai na Eva, vocês aplicam os modelos RAG no pós processamento dos dados coletados ou no pré, para interpretação antes de aplicar um modelo de machine learning?
ernando
6 dias atrás
Em resposta a Matheus Silvério nesse post
fala, Matheus! Então, hoje usamos rag em dois locais

1- no chatbot, que é um misto de queries pré definidas + funções pra recuperar os dados sem precisar processar muita coisa

2 - na criação dos relatórios, aqui é no dado bruto mesmo, e onde foi mais complicado mas melhorou muito os resultados, tava rolando muita alucinação sem rag

De resto, analisamos por nlp cada comentário individualmente e pelo gpt mesmo geramos um json que salva no supabase cada item; tópico avaliado, sentimento, percepção geral etc

Se algo não ficou claro, só dar um toque