Водечките компании за вештачка интелигенција се соочени со дилема: како да се зголеми ефикасноста на Пентагон без нивните производи да убиваат луѓе.
Како што пишува Tech Crunch, нивните алатки во моментов му даваат на американското Министерство за одбрана „значајна предност“ во идентификувањето, следењето и проценувањето на заканите, што го намалува времето потребно за извршување на чекорите во рамките на синџирот на убивање.
Синџирот на убивање е воен термин кој го опишува процесот на идентификување, следење и елиминирање на заканите. Може да вклучува, меѓу другото, комплексен систем на сензори, платформи и оружје. Генеративната вештачка интелигенција е корисна за време на фазите на планирање и стратегија.
Платформите OpenAI, Anthropic и Meta, наводно, јасно им ставиле до знаење на американските разузнавачки и одбранбени агенции дека не дозволуваат нивните технологии да се користат за да им наштетат на луѓето.
Но, тоа не се покажа како значајна пречка за соработка.
Нема оружје без луѓе?
Meta постигна договор со Lockheed Martin и Booz Allen за користење на моделот Lllama. Истиот месец, Anthropic соработуваше со Palantir, а во декември OpenAI постигна сличен договор со Anduril. Cohere ги имплементираше своите модели во системите на Palantir.
Можно е компаниите од Силиконската долина на крајот да овозможат поголема употреба на вештачка интелигенција за воени цели. На пример, може да биде корисно за воени игри и други симулации.
Минатата година, десетици вработени во Amazon и Google беа отпуштени и уапсени откако протестираа за воените договори на компаниите со Израел, како дел од проектот Nimbus.
Заедницата која развива AI беше многу помалку гласна во овој поглед.
Шефот на Anthropic, Дарио Амодеи неодамна изјави дека нема смисла да се инсистира на ставот дека вештачката интелигенција никогаш нема да се користи за одбрана и разузнавачка работа. Тој е убеден дека треба да се најде решение кое е меѓу крајностите и кое ќе овозможи одговорен пристап кон ова чувствително прашање.
Некои тврдат дека американската војска веќе има оружје засновано на вештачка интелигенција.
Извршниот директор на Anduril, Палмер Лаки, неодамна забележа на X дека американската војска има долга историја на купување и користење на автономни системи за оружје како што е CIWS. Нивната употреба е експлицитно регулирана со правила кои не можат да се избегнат, додаде тој.
Сепак, се чини дека моментално нема смртоносни платформи кои не вклучуваат луѓе, ниту пак има планови за тоа во догледна иднина.