Мајкрософт го претстави новото издание на моделот за генеративна вештачка интелигенција од семејството Phi.
Малиот јазичен модел Phi-4 со 14 милијарди параметри би требало да биде подобар во неколку области, особено во решавањето математички проблеми, благодарение меѓу другото и на наводно поквалитетните податоци за обука.
Поконкретно, Мајкрософт го припишува скокот во перформансите на Phi-4 на употребата на „висококвалитетни синтетички збирки на податоци“ како дополнение на висококвалитетни збирки на податоци од содржина генерирана од луѓе и некои неодредени подобрувања по обуката.
Многу лаборатории за вештачка интелигенција деновиве внимателно ги разгледуваат иновациите што можат да ги направат околу синтетичките податоци и пост-тренингот, бидејќи се чини дека максимумот од она што може да се направи пред обуката е веќе достигнато.
Phi-4 ќе се натпреварува со други мали модели како што се GPT-4o mini, Gemini 2.0 Flash и Claude 3.5 Haiku. Овие помали модели со вештачка интелигенција често се побрзи и поевтини за работа, а нивните перформанси постепено се зголемуваат во текот на изминатите неколку години.
Во моментов е достапен само на неодамна лансираната платформа за развој на Microsoft Azure AI Foundry и само за истражувачки цели според договорот за лиценца за истражување на Microsoft.
Phi-4 е првиот модел од серијата Phi лансиран по заминувањето на Себастиен Бубек, потпретседател на Microsoft кој беше клучен за развојот на серијата, кој се пресели во OpenAI во октомври, пишува Tech Crunch.