Ny Apple-studie visar att LLM-modeller kan förstå vad du gör – via ljud och rörelsedata
Apple har publicerat en studie som visar att stora språkmodeller (LLM) effektivt kan förstå användarens aktiviteter genom ljud- och rörelsedata, utan att äventyra integriteten. Detta kan förbättra aktivitetsigenkänning och hälsofunktioner.