OpenAI неодамна објави дека ќе воведе родителски контроли за ChatGPT пред крајот на овој месец.
Исто така, откри дека развива автоматизиран систем за предвидување на возраста дизајниран да утврди дали корисникот е под 18 години, по што ќе понуди соодветно искуство со четбот управуван од вештачка интелигенција.
Доколку во некои случаи системот не може да ја предвиди возраста на корисникот, OpenAI би можел да побара лична карта за да понуди најсоодветно искуство.
Планот беше споделен во објава оваа недела од извршниот директор на OpenAI, Сем Алтман, кој истакна дека ChatGPT е наменет за лица над 13 години.
Алтман рече дека возраста на корисниците ќе се предвиди врз основа на тоа како луѓето го користат ChatGPT.
„Доколку има каква било сомнеж, ќе играме на сигурно и ќе го користиме искуството за лица под 18 години“, рече тој. „Во некои случаи или земји, може да побараме и идентификација. Знаеме дека тоа е компромис во однос на приватноста за возрасни, но веруваме дека е вреден компромис.“
Тој додаде дека сака корисниците да комуницираат со ChatGPT на начинот на кој сакаат, „во многу широки граници на безбедност“.
Истакна и дека почетната верзија на ChatGPT не е особено „флертувачка“, но рече дека ако корисникот побара такво однесување, четботот ќе одговори соодветно.
Првичната верзија, исто така, не треба да дава упатства за тоа како некој може да си го одземе животот. Но, нагласи Алтман, ако возрасен корисник побара помош за пишување фиктивна приказна што прикажува самоубиство, тогаш „моделот треба да помогне со тоа барање“.
Идеално, тоа ќе ја прошири слободата колку што е можно повеќе без да му наштети или поткопа слободата на некој друг.
Меѓутоа, во случаи кога е утврдено дека корисникот е под 18 години, флертувањето и коментарите за самоубиство ќе бидат оневозможени во сите области.
Доколку такво лице изрази самоубиствени мисли на ChatGPT, ќе се обиде да контактира со родителите на корисникот. Доколку не успеат, ќе ги контактираат властите во случај на непосредна опасност, пишува Digital Trends.