Стало известно, что DARPA (Агенство перспективных оборонных исследовательских
проектов министерства обороны США) заинтересовано в разработке проекта по
принятию решений искусственным интеллектом (ИИ). Новый проект "In the Moment"
говорит сам за себя, задачи разрабатываемого ИИ заключается в оперативном
принятии решений. Некоторые специалисты считают, что ИИ лишен человеческих
эмоций и предубеждений, поэтому компьютерные алгоритмы, в определенных
ситуация, помогут спасти значительно число жизней.
Несмотря на то, что проект находится на ранней стадии разработки, но уже
вызвал критику от ряда специалистов, ведь сбой в алгоритме работы может
поставить жизни людей под угрозу. Однако представители DARPA утверждают, что
работа ИИ будет находиться под контролем человека, к тому же эпоха ИИ уже
наступила и не использовать возможности компьютеров в сборе, анализе и
сортировке информации, для спасения людей, это непозволительно.
Если окунуться в историю проекта DARPA, то эта организация подарила миру такие
изобретения как интернет, GPS, метереологические спутники и оно спонcировало
разработку вакцины от коронавируса Moderna. Это те изобретения которыми
пользуется если не весь мир, то значительная его часть.
В 60-х годах прошлого века агенство DARPA разработало алгоритм, которые
позволит компьютеру играть в шахматы, однако в 70 - 80х годах, из-за
ограничений вычислительных возможностей компьютеров, разработки алгоритмов
приостановились.
С началом нового тысячелетия произошло "возрождение" в сфере компьютерных
вычислений, компьютеры стали дешевле и быстрее. А с появлением возможности
выполнять вычисления на графических картах, открылась дорога к проектированию
и обучению нейронных сетей.
DARPA рассчитывает превратить компьютеры из инструмента в коллегу, с присущими
компьютеру возможностями быстро анализировать большие объемы данных и
выполнять сложные вычисления.
Компьютерный коллега поможет человеку принимать решения в условиях
быстроменяющихся обстоятельствах. Например, стихийные бедствия, боевые
условия. Человек может быть перегружен поступающим объемом данных, что может
поставить его в "ступор", однако машина будет лишена такого недостатка.
Например, ИИ может мгновенно оценить ресурсы в близлежащих больницах, такие
как наличие медикаментов, запасов крови, наличие свободных мест и
перенаправить пациента в то медицинское учреждение, где все необходимые
условия соблюдены или они максимизорованы.
Наличие угрозы, моделирование поведения и определение количества, наличия
средств противодействия угрозы — это то с чем ИИ справиться значительно
быстрее человека. В условиях ограниченных ресурсов, ИИ будут создавать модель,
позволяющую действовать с минимальными потерями функциональности.
Но тут возникает вопрос: кто будет нести ответственность, если алгоритм даст
сбой или если в условиях ограниченных ресурсов, кому-то не будет оказана
помощь? Если у человека есть сожаление и он может хотя бы извиниться,
покаяться, то алгоритм этого не может.