Ik merk vaak dat de reactiekwaliteit van Perplexity slecht is, met verlies van context, ondanks dat ik voor het Claude 3.5 sonnet-model heb gekozen. Ik begon te vermoeden welk model het eigenlijk gebruikte, dus in schrijfmodus stelde ik het een paar vragen en concludeerde snel dat het GPT-3.5 gebruikte. Is er een manier om dit op te lossen? Kunnen we Perplexity rapporteren vanwege bedrog naar gebruikers?
Ja, het is een bekende “bug” dat ze dit doen. Veel gebruikers hebben dit gerapporteerd op hun Discord en ze sloten het “probleem” zonder uit te leggen waarom.
Aan wie rapporteer jij ze trouwens? Het beste wat je kunt doen, is je membership opzeggen.
Probeer dezelfde vraag te stellen zonder de pro-standaard ingeschakeld.
De pro-modus activeert een andere AI die de zoekopdrachten uitvoert, waarna het de resultaten doorgeeft aan het model dat je gebruikt. Mijn gok is dat Claude de output van die AI leest, die wordt uitgevoerd met GPT.
Als je dezelfde vraag stelt en het zegt iets anders, dan klopt mijn gok.
Houd er wel rekening mee dat OP dat LLM’s niets over zichzelf weten. Wat ze weten, is wat de systeemprompt hen vertelt.
Dat is niet wat ik kreeg. Het zei:
“Ik word aangedreven door Perplexity’s eigen LLM-technologie, die meerdere modellen en benaderingen combineert. Perplexity gebruikt zowel intern ontwikkelde modellen als integreert met andere LLM’s, waaronder GPT-4, Claude en Mistral”
Het standaardmodel is specifiek geoptimaliseerd voor snelheid en web browsing, met focus op snelle en accurate antwoorden. Voor Pro-gebruikers kan het systeem toegang krijgen tot extra geavanceerde modellen, waaronder GPT-4 Omni, Claude 3.5 Sonnet, Claude 3 Opus, en Sonar Large (gebaseerd op LlaMa 3.1 70B)


