24 апреля 2022 г.

ИИ как Коллега, а не Инструмент

Стало известно, что DARPA (Агенство перспективных оборонных исследовательских проектов министерства обороны США) заинтересовано в разработке проекта по принятию решений искусственным интеллектом (ИИ). Новый проект "In the Moment" говорит сам за себя, задачи разрабатываемого ИИ заключается в оперативном принятии решений. Некоторые специалисты считают, что ИИ лишен человеческих эмоций и предубеждений, поэтому компьютерные алгоритмы, в определенных ситуация, помогут спасти значительно число жизней.

Несмотря на то, что проект находится на ранней стадии разработки, но уже вызвал критику от ряда специалистов, ведь сбой в алгоритме работы может поставить жизни людей под угрозу. Однако представители DARPA утверждают, что работа ИИ будет находиться под контролем человека, к тому же эпоха ИИ уже наступила и не использовать возможности компьютеров в сборе, анализе и сортировке информации, для спасения людей, это непозволительно.

Если окунуться в историю проекта DARPA, то эта организация подарила миру такие изобретения как интернет, GPS, метереологические спутники и оно спонcировало разработку вакцины от коронавируса Moderna. Это те изобретения которыми пользуется если не весь мир, то значительная его часть.

Солдат в цифровую эпоху - DARPA

В 60-х годах прошлого века агенство DARPA разработало алгоритм, которые позволит компьютеру играть в шахматы, однако в 70 - 80х годах, из-за ограничений вычислительных возможностей компьютеров, разработки алгоритмов приостановились.

С началом нового тысячелетия произошло "возрождение" в сфере компьютерных вычислений, компьютеры стали дешевле и быстрее. А с появлением возможности выполнять вычисления на графических картах, открылась дорога к проектированию и обучению нейронных сетей.

DARPA рассчитывает превратить компьютеры из инструмента в коллегу, с присущими компьютеру возможностями быстро анализировать большие объемы данных и выполнять сложные вычисления.

Компьютерный коллега поможет человеку принимать решения в условиях быстроменяющихся обстоятельствах. Например, стихийные бедствия, боевые условия. Человек может быть перегружен поступающим объемом данных, что может поставить его в "ступор", однако машина будет лишена такого недостатка.

Например, ИИ может мгновенно оценить ресурсы в близлежащих больницах, такие как наличие медикаментов, запасов крови, наличие свободных мест и перенаправить пациента в то медицинское учреждение, где все необходимые условия соблюдены или они максимизорованы.

Наличие угрозы, моделирование поведения и определение количества, наличия средств противодействия угрозы — это то с чем ИИ справиться значительно быстрее человека. В условиях ограниченных ресурсов, ИИ будут создавать модель, позволяющую действовать с минимальными потерями функциональности.

Но тут возникает вопрос: кто будет нести ответственность, если алгоритм даст сбой или если в условиях ограниченных ресурсов, кому-то не будет оказана помощь? Если у человека есть сожаление и он может хотя бы извиниться, покаяться, то алгоритм этого не может.

Комментариев нет:

Отправить комментарий