als je het gemist hebt, we hebben momenteel een onderzoeks samenwerking met Harvard je kunt meedoen en 25% korting krijgen op je inferentiekosten. alles wat je hoeft te doen is je eindpunt wijzigen: → dezelfde modellen, dezelfde API, er verandert verder niets. je betaalt gewoon minder. ejouw data gaat naar het team van Harvard om te helpen bij het bouwen van een caching-algoritme dat de inferentie sneller en goedkoper zal maken over het hele platform zodra het wordt gelanceerd. weet gewoon dat je prompts en antwoorden op dit eindpunt worden geregistreerd, dus houd alles wat gevoelig is zoals normaal. het is nu live en werkt al.