Logo
ernando
6 dias atrás
ontem a openai provavelmente fez o maior lançamento de produto/recurso deles desse ano

apresentaram o modelo o1, modelo que - propositalmente - é mais lento que os demais, consegue raciocinar melhor que qualquer modelo já apresentado (fonte: benchmark openai)

sua aplicação em genética, economia e física quântica pode ser vista aqui: https://tinyurl.com/553xvc...

Jabá: aqui na Eva Analytics ( https://tinyurl.com/45958x... ) já integramos o modelo novo com nossos relatórios

qualquer cliente - seja um pagante ou não - está com acesso ao que existe de mais avançado em IA para CX
Matheus Silvério
Que dahora! Estava acompanhando por aqui também. Ai na Eva, vocês aplicam os modelos RAG no pós processamento dos dados coletados ou no pré, para interpretação antes de aplicar um modelo de machine learning?
6 dias atrás
Em resposta a ernando nesse post
ernando
6 dias atrás
Em resposta a Matheus Silvério nesse post
fala, Matheus! Então, hoje usamos rag em dois locais

1- no chatbot, que é um misto de queries pré definidas + funções pra recuperar os dados sem precisar processar muita coisa

2 - na criação dos relatórios, aqui é no dado bruto mesmo, e onde foi mais complicado mas melhorou muito os resultados, tava rolando muita alucinação sem rag

De resto, analisamos por nlp cada comentário individualmente e pelo gpt mesmo geramos um json que salva no supabase cada item; tópico avaliado, sentimento, percepção geral etc

Se algo não ficou claro, só dar um toque
Matheus Silvério
6 dias atrás
Em resposta a ernando nesse post
Legal! Tentaram usar modelos próprios para análise do dado bruto, tipo um random forest pra forecasting ?

RAG pra sumarização é muito bom e ganha muito tempo, sempre usei isso antes de criar os Chunks de contexto. Afunilamento do conteúdo tende a ficar mais preciso dependendo do conteúdo. Isso pra chatbot 🤯

Olhando pro supabase, vocês estão salvando o conteúdo indexado (que usam como contexto) lá ?