Studiuesit e Apple kanë zbuluar një mënyrë të re për ta bërë Siri-n më të zgjuar dhe më të shpejtë.
Sipas një punimi të ri kërkimor të publikuar më 29 mars 2024 (e premte), studiuesit e Apple shpjegojnë se si sistemi i ri i Inteligjencës Artificiale (AI), i quajtur ReALM (Referenca Rezolucioni si Modelimi i Gjuhës), mund të shikojë se çfarë është në ekranin tuaj dhe në atë që po bën për të kuptuar çfarë ke nevojë.
Kjo do të thotë se Siri mund të kuptojë kontekstin e pyetjeve tuaja shumë më mirë sesa më parë, siç është të di se çfarë është në ekranin tënd ose çfarë muzike po luhet.
Për më tepër, studiuesit e Apple pohojnë se modelet më të mëdha të ReALM tejkalojnë GPT-4.
Nëse pretendimet bëhen të vërteta, Siri mund të bëhet shumë më e dobishme se kurrë.
Raporti vëren se modeli i gjuhës ReALM i Apple supozohet se tejkalon GPT-4 në “rezolucion referimi”, duke kuptuar referencat kontekstuale si elementët në ekran, temat e bisedës dhe entitetet e sfondit.