Проф. Зико Колтър от Carnegie Mellon University оглавява четиричленния Комитет по безопасност и сигурност в OpenAI — орган с правомощия да спре пускането на нови AI модели, ако те се окажат опасни. Това включва технологии, които могат да бъдат използвани за създаване на оръжия за масово унищожение или да навредят на психичното здраве на потребителите.
Ролята му придоби още по-голямо значение след като Калифорния и Делауер включиха неговия надзор в официалните споразумения, позволяващи на OpenAI да премине към нова бизнес структура — компания с обществена полза, контролирана от нестопанската OpenAI Foundation. Колтър ще бъде член на нестопанския борд и ще има пълен достъп до заседанията и информацията на търговския борд, без да е част от него.
Комитетът има правото да забавя или блокира пускането на модели, докато не бъдат приложени необходимите мерки за безопасност. Сред членовете му е и генерал Пол Накасоне, бивш командир на U.S. Cyber Command. Сам Алтман се оттегли от комитета през 2024 г., за да му даде повече независимост.
Колтър подчертава, че рисковете не се ограничават само до екзистенциални заплахи, а включват киберсигурност, злоупотреба с AI за създаване на биологични оръжия, както и въздействие върху психичното здраве. OpenAI вече е обект на критики, включително дело за неправомерна смърт, след като тийнейджър се самоуби след дълги разговори с ChatGPT.
С над 20 години опит в машинното обучение, Колтър е наблюдавал развитието на OpenAI от самото му начало. Според него, настоящият взрив от възможности и рискове е безпрецедентен, и изисква сериозен подход към безопасността.
AI експерти и активисти ще следят внимателно дали новите ангажименти на OpenAI ще бъдат реално приложени или ще останат само на хартия.
                        
                        
                    
                        
                            
                            
                        
Все още няма коментари. Бъдете първи!