Apple laat zien hoe LLM’s op smartphones kunnen draaien

LLM’s hebben aanzienlijke systeemeisen, waardoor alleen geavanceerde hardware momenteel grote AI-modellen aankan. Daar lijkt verandering in te komen, als we onderzoek van Apple mogen geloven. Apple-onderzoekers wisten onlangs in het zogeheten “LLM In A Flash“-onderzoek AI-modellen met weinig systeemgeheugen te draaien. AI-inferencing, de berekeningen die een reactie van een chatbot op een prompt mogelijk maken, […]

Generated by Feedzy