Роботи вчаться самостійно проводити операції, дивлячись відео

0
1 045 views
Роботи вчаться самостійно проводити операції, дивлячись відео

Бум штучного інтелекту вже починає проникати в медичну сферу у вигляді підбиття підсумків візитів на основі штучного інтелекту та аналізу стану пацієнта. Нове дослідження демонструє, як методи навчання ШІ, подібні до тих, що використовуються для ChatGPT, можуть бути використані для навчання хірургічних роботів самостійним операціям.

Дослідники з Університету Джона Хопкінса та Стенфордського університету побудували навчальну модель, використовуючи відеозаписи роботизованих рук, керованих людиною, які виконують хірургічні завдання. Навчившись імітувати дії на відео, дослідники вважають, що зможуть зменшити потребу в програмуванні кожного окремого руху, необхідного для процедури.

Безумовно, робототехніка використовується в операційній вже багато років – ще в 2018 році мем “операція на винограді” підкреслив, як роботизовані руки можуть допомагати під час операцій, забезпечуючи підвищений рівень точності. У 2020 році було проведено близько 876 000 операцій з використанням роботів. Роботизовані інструменти можуть дістатися до таких місць і виконати завдання в тілі, куди рука хірурга ніколи не дотягнеться, і при цьому вони не страждають від тремтіння. Тонкі, точні інструменти можуть уникнути пошкодження нервів. Але робототехніка, як правило, керується вручну хірургом за допомогою контролера. Хірург завжди залишається головним.

Скептики більш автономних роботів побоюються, що моделі штучного інтелекту, такі як ChatGPT, не є “розумними”, а скоріше просто імітують те, що вони вже бачили раніше, і не розуміють основних концепцій, з якими вони мають справу. Нескінченне розмаїття патологій у незліченної кількості людей створює проблему: що, якщо модель ШІ раніше не бачила певного сценарію? Щось може піти не так під час операції за частку секунди, і що, якщо ШІ не навчений реагувати на це?

Як мінімум, автономні роботи, що використовуються в хірургії, повинні бути схвалені Управлінням з санітарного нагляду за якістю харчових продуктів і медикаментів. В інших випадках, коли лікарі використовують ШІ для підбиття підсумків візитів до пацієнтів і надання рекомендацій, схвалення FDA не потрібне, оскільки технічно передбачається, що лікар перевіряє і схвалює будь-яку інформацію, яку вони надають. Це викликає занепокоєння, оскільки вже є докази того, що боти зі штучним інтелектом можуть давати погані рекомендації або галюцинувати і включати в стенограми зустрічей інформацію, яка ніколи не була виголошена. Як часто втомлений, перевантажений роботою лікар буде штампувати все, що видає штучний інтелект, не перевіряючи його ретельно?

Це нагадує нещодавні повідомлення про те, як солдати в Ізраїлі покладаються на ШІ для визначення цілей атаки, не перевіряючи інформацію дуже ретельно. “Солдати, які були погано навчені користуватися цією технологією, атакували людські цілі без жодного підтвердження прогнозів [ШІ], – йдеться в статті Washington Post. “У певні моменти єдиним необхідним підтвердженням було те, що ціль була чоловічої статі”. Все може піти шкереберть, коли люди стають самозаспокоєними і недостатньо в курсі подій.

Охорона здоров’я – ще одна сфера з високими ставками – безумовно, вищими, ніж на споживчому ринку. Якщо Gmail неправильно підсумовує електронний лист, це не кінець світу. Набагато серйознішою проблемою є неправильний діагноз, поставлений системою штучного інтелекту, або помилка під час операції. Хто в такому випадку несе відповідальність?

Ідею про те, що ШІ коли-небудь буде безпомилковим, важко сприймати серйозно, коли жодна технологія не є досконалою. Безумовно, ця автономна технологія цікава з дослідницької точки зору, але наслідки невдалої операції, проведеної автономним роботом, будуть колосальними. Кого ви караєте, коли щось йде не так, у кого відкликають медичну ліцензію? Люди теж не безгрішні, але принаймні пацієнти можуть бути спокійні, знаючи, що вони пройшли багаторічну підготовку і можуть бути притягнуті до відповідальності, якщо щось піде не так. ШІ-моделі є грубими симулякрами людей, поводяться часом непередбачувано і не мають моральних орієнтирів.

Якщо лікарі втомлені і перевантажені роботою – причина, через яку, на думку дослідників, ця технологія може бути корисною, – можливо, замість цього слід вирішити системні проблеми, що спричиняють дефіцит кадрів. Широко повідомлялося, що США відчувають гостру нестачу лікарів через зростаючу недоступність цієї галузі. За даними Американської асоціації медичних коледжів, до 2036 року країні не вистачатиме від 10 000 до 20 000 хірургів.