Тиха трансформація: яким чином штучний інтелект підтримує медиків і дослідників

Микита Казимиров Журналіст, автор, біомедичний інженер. Вже 8 років спеціалізується на поп-культурі з невеликим елементами дуростей.

Поки соціальні мережі сперечаються про те, чи замінить штучний інтелект роботу художників і копірайтерів, у наукових лабораторіях та на орбіті Землі відбувається справжня, але "тиха" революція. Там ШІ давно перестав бути іграшкою для генерації відео з котиками та перетворився на повноцінний інструмент, який здатний змінювати реальність. Нейромережі дозволяють розв'язувати проблеми, що десятиліттями здавалися вченим непідйомними. Ось 20 прикладів того, як алгоритми вже декілька років рятують життя, допомагають захищати планету та рухають науку вперед.

Понад півстоліття вчені намагалися передбачити 3D-структуру білків, адже саме форма визначає їхню функцію в організмі. Раніше на розшифровку одного білка могли піти роки лабораторної роботи. З цікавого: автори EVE Online навіть долучили свою спільноту до вивчення цього питання. Система AlphaFold від DeepMind передбачає тривимірну форму білків на основі їхньої амінокислотної послідовності, досягаючи атомної точності з медіанною похибкою 0,96 ангстрема (одна десятимільйонна міліметра), що можна порівняти з експериментальними методами.

В основі нейромережі лежить архітектурний блок Evoformer, який розглядає згортання білка як задачу графового виведення у 3D-просторі, поєднуючи дані множинних вирівнювань послідовностей та механізми уваги для парних взаємодій. Для генерації фінальної структури застосовується окремий модуль із механізмом "інваріантної точкової уваги" (Invariant Point Attention, IPA), який ітеративно уточнює координати атомів. Тепер біологи мають відкриту базу даних з майже 200 мільйонів моделей білків - це майже всі каталогізовані білки, відомі науці на сьогодні.

Вчені з Массачусетського технологічного інституту застосували глибоку нейронну мережу для відкриття нових антибіотиків. Вони тренували її на наборі з 2 335 молекул, щоб виявити структурні характеристики, які можуть виявляти антибактеріальну активність проти бактерії кишкової палички. Використовуючи цю модель, дослідники провели комп'ютерне моделювання, в якому було проаналізовано 6000 сполук з бази Drug Repurposing Hub. Цей підхід дозволив уникнути людських упереджень, пов'язаних з відомими хімічними структурами, і дослідити зв'язки між структурою та активністю безпосередньо на основі даних.

Алгоритм виявив молекулу SU-3327, переіменовану на халіцин, як найперспективнішого кандидата. Це був колишній експериментальний препарат для лікування діабету. Незважаючи на обнадійливі результати доклінічних досліджень, засіб не показав ефективності проти палички синьогнійної і ще не проходив клінічні випробування через складний фармакокінетичний профіль. Це підкреслює необхідність вдосконалення майбутніх моделей штучного інтелекту для прогнозування параметрів ADME (абсорбція, розподіл, метаболізм та екскреція). Цікаво, що антибіотик отримав свою назву на честь штучного інтелекту Хал з фільму "Космічна одіссея 2001 року".

У радіології кожна деталь на знімку має критичне значення, але людське око втомлюється та не позбавлено вроджених дефектів та нюансів сприйняття, що призводить до помилок. ШІ-моделі від Google Health навчилися аналізувати мамограми, виявляючи найменші патерни, непомітні навіть для досвідчених лікарів. Систему оцінювали на деперсоніфікованих наборах даних: понад 25 000 жінок із Великої Британії та понад 3 000 зі США. Порівняно з рішеннями окремих лікарів, алгоритм продемонстрував абсолютне зниження кількості хибнопозитивних результатів на 5,7% (США) та 1,2% (Велика Британія), а хибнонегативних - на 9,4% (США) та 2,7% (Велика Британія).

Модель також довела здатність до генералізації: ШІ, навчений виключно на британських даних, успішно перевершив експертів-людей на даних пацієнток з США. У симульованому експерименті використання ШІ як незалежного "другого читача" показало, що система може забезпечити діагностику не гіршої якості, скоротивши робоче навантаження на лікаря до 12% від поточного обсягу. Наразі технологія ще не впроваджена в клінічну практику і потребує проведення проспективних клінічних досліджень.

Для тих, хто втратив можливість спілкуватися після інсульту, комунікація стає справжнім викликом. Учені створили інноваційний нейроінтерфейс під назвою Intelligent Throat – компактний пристрій, який інтегрує надчутливі текстильні тензодатчики та алгоритми штучного інтелекту. Ці датчики вловлюють мікровібрації м’язів гортані під час беззвучного вимовляння слів, а також сигнали каротидного пульсу. Натомість традиційного розпізнавання фраз, система аналізує мовний сигнал, розбиваючи його на токени по 144 мілісекунди, та використовує 1D-згорткову нейромережу для безперервного декодування у реальному часі.

Окремий алгоритм аналізує варіабельність пульсу для визначення емоційного стану пацієнта (нейтральний, полегшення, фрустрація). Далі в роботу вступають два агенти на базі великої мовної моделі (LLM через API GPT-4o-mini): перший (TSA) збирає токени у слова та виправляє помилки розпізнавання, а другий (SEA) за бажанням користувача розгортає короткі фрази у повноцінні речення, враховуючи декодовану емоцію та контекст, наприклад, погоду чи час. Під час тестування на 5 пацієнтах після інсульту досягла рівня помилок лише 4,2% на рівні слів та 2,9% на рівні речень, забезпечивши плавну комунікацію без затримок.

Діабетична ретинопатія є однією з основних причин втрати зору у світі, і приблизно 415 мільйонів людей з діабетом можуть бути під загрозою цього захворювання. Однак багато з них не мають можливості проходити регулярні обстеження через брак кваліфікованих спеціалістів. Команда дослідників з Google створила алгоритм глибокого навчання, який здатний автоматично виявляти ознаки цієї патології – такі як ураження, крововиливи або витік рідини – на двовимірних зображеннях сітківки ока.

Для навчання моделі було створено великий датасет, що містить 128 000 зображень, у співпраці з лікарями з Індії та США. Під час тестування алгоритму його ефективність виявилася на рівні професійних сертифікованих офтальмологів, з високими показниками чутливості та специфічності. Ця система автоматизованого скринінгу має на меті швидко ідентифікувати пацієнтів з патологіями та направляти їх до відповідних фахівців, одночасно триває розробка алгоритмів для аналізу складніших 3D-зображень сітківки.

Додаток Be My Eyes представив нового цифрового помічника під назвою Be My AI, створеного для підтримки людей з вадами зору. Цей інноваційний інструмент повністю інтегрований у сам додаток і використовує можливості мовної моделі GPT-4 від OpenAI. Користувачам лише потрібно відкрити відповідну вкладку та зробити знімок, після чого система надає вичерпний опис зображення.

Головною особливістю цього алгоритму є його інтерактивність: користувач має можливість спілкуватися з штучним інтелектом та задавати додаткові запитання стосовно отриманого зображення. Якщо алгоритм не може відповісти або результати потребують людської перевірки, система пропонує зручний механізм для швидкого переходу до спілкування з живим волонтером. Цей інструмент абсолютно безкоштовний для цільової аудиторії.

Повені щороку забирають життя тисяч людей, особливо в тих районах, де інфраструктура попередження недостатньо розвинена. Штучний інтелект у формі платформи Flood Hub розроблений для покращення прогнозування можливих катастроф. Він базується на комбінації двох моделей ШІ. Гідрологічна модель досліджує відкриті дані про метеорологічні умови, опади та водозбірні басейни з метою прогнозування обсягу води в ріках. У свою чергу, модель затоплення використовує ці прогнози разом із супутниковими зображеннями для моделювання розповсюдження води та визначення точних меж і висоти підтоплення.

Натренований на глобальних метеорологічних продуктах алгоритм перевершує за точністю загальноприйняту модель GloFAS і здатен прогнозувати динаміку рівня води за 7 днів до повені. Важливою особливістю системи є її здатність використовувати алгоритми для перенесення інформації з регіонів із великою кількістю реальних річкових датчиків на території, де таких даних бракує (завдяки майже 250 000 "віртуальних датчиків"). Наразі система охоплює річкові басейни у понад 150 країнах, надаючи безкоштовні попередження для 700 мільйонів людей через Google Search, Maps, Android та спеціалізовані API для дослідників.

Модель GraphCast від Google DeepMind здійснює середньострокове прогнозування погоди, використовуючи архітектуру графових нейронних мереж, яка оптимізована для обробки просторово структурованих даних. Алгоритм натреновано на базі архівних даних ERA5 від Європейського центру середньострокових прогнозів погоди за останні чотири десятиліття, що дозволило йому вивчити причинно-наслідкові зв'язки еволюції атмосфери без використання традиційних диференціальних рівнянь.

Отримуючи на вхід лише два стани погоди (поточний та за 6 годин до цього), модель ітеративно генерує прогноз на 10 днів уперед з просторовою роздільною здатністю 0,25 градуса (28×28 км) для поверхневих та атмосферних змінних на 37 рівнях висоти. Увесь процес обчислення займає менше ніж хвилину на одному процесорі Google TPU v4. Під час комплексного тестування GraphCast перевершив галузеву чисельну систему HRES за понад 90% з 1 380 тестових змінних, а також продемонстрував здатність точніше й раніше передбачати екстремальні погодні явища, хоча спеціально не тренувався для їх пошуку.

У контексті зміни клімату лісові пожежі поширюються з шаленою швидкістю, тому швидкість реагування є критично важливою. Програма ALERTCalifornia використовує мережу високоякісних камер з інфрачервоним нічним баченням, а також дані лазерного сканування (LiDAR) для спостереження за природними катастрофами. Разом із агентством CAL FIRE та компанією Digital Path був створений інструмент на основі штучного інтелекту, який автоматично аналізує відеопотоки в пошуках загорянь.

Коли алгоритм виявляє ймовірну пожежу, він автоматично надсилає повідомлення пожежникам, вказуючи відсоток впевненості та орієнтовне місце розташування інциденту. Після підтвердження події досвідченими операторами, пожежні команди можуть швидко реагувати на загрозу на ранньому етапі, що значно зменшує втому спостерігачів і знижує кількість хибних спрацьовувань. Цю систему штучного інтелекту впроваджено у всіх 21 диспетчерських центрах 911 CAL FIRE. Вона показала високу ефективність у важкодоступних районах та вночі, іноді генеруючи сповіщення швидше, ніж надходять дзвінки від свідків подій.

Ступінь забруднення атмосфери на міських перехрестях може перевищувати рівень на відкритих автошляхах у 29 разів. При цьому близько половини цих викидів виникає внаслідок прискорення автомобілів після зупинки на червоне світло. Проєкт Green Light застосовує штучний інтелект і агреговані дані про трафік з Google Maps для моделювання транспортних потоків, уникаючи необхідності встановлювати дороге додаткове обладнання або проводити ручний підрахунок.

Алгоритм аналізує наявні параметри світлофорів (тривалість циклу, час очікування, координацію між перехрестями) і генерує для міських інженерів рекомендації щодо налаштування таймінгів, які можна впровадити лише за 5 хвилин за допомогою існуючих міських інструментів. За попередніми даними, такі зміни здатні зменшити кількість зупинок на 30% та скоротити викиди парникових газів на 10%. Запущена у 2023 році, система наразі функціонує у 20 містах на чотирьох континентах, щомісяця знижуючи викиди для 47 мільйонів автомобільних поїздок.

Сучасні аграрії прагнуть уникати використання гербіцидів, щоб зберегти родючість ґрунту і вирощувати екологічно чисті продукти. Технологія Carbon Robotics оснащена інноваційною системою LaserWeeder, яка інтегрує комп'ютерний зір, обробку даних на краю мережі та лазерну кінематику. Це дозволяє роботам миттєво ідентифікувати бур'яни серед корисних рослин та знищувати їх за допомогою точних лазерних імпульсів.

Для реального часу класифікації рослин застосовується унікальна нейромережа під назвою Large Plant Model, яка була навчена на базі понад 150 мільйонів зображень. Ця технологія здатна ефективно відрізняти культурні рослини від бур'янів, навіть при змінних умовах освітлення. Використання термічного імпульсу дозволяє миттєво знищувати клітинну структуру бур'янів без шкоди для ґрунту або сусідніх культур, досягаючи вражаючої швидкості усунення до 5000 бур'янів за хвилину з точністю до субміліметра. Компанія Carbon Robotics отримала інвестиції від NVIDIA.

Дослідники з Техаського університету в Остіні використали модель машинного навчання на базі 3D-згорткової нейромережі для генерації мутацій природного ферменту PETase. Цей алгоритм точно передбачив, які саме мутації дозволять ферменту швидко деполімеризувати поліетилентерефталат (ПЕТ) за низьких температур. Створений варіант ферменту, який отримав назву FAST-PETase, здатний повністю розщеплювати ПЕТ-пластик до вихідних мономерів усього за 24 години за температури менш ніж 50 градусів Цельсія.

Ефективність цієї технології була майже підтверджена під час випробувань на 51 виді споживчих пластикових контейнерів і п'яти категоріях поліефірних волокон та тканин. На відміну від енергоємних промислових способів утилізації, це біологічне рішення вимагає значно менше енергії. Розробники також надали оптимізовану модель штучного інтелекту для академічної спільноти через вебплатформу MutCompute.

Коли відбувається землетрус або ураган, важливо, щоб рятувальники мали чітке уявлення про найбільш постраждалі райони, щоб ефективно спрямувати свою допомогу. Штучний інтелект xView2 виконує порівняння супутникових зображень "до" і "після" катастрофи, автоматично формуючи карту зруйнованих будівель і доріг. Основою для алгоритмів служить база даних xBD, що містить понад 850 000 анотованих полігонів будівель на супутникових знімках високої роздільної здатності, зафіксованих до і після катастрофи, для шести типів природних лих у 15 країнах. Оскільки раніше не існувало єдиних стандартів для класифікації руйнувань, розробники створили Спільну шкалу пошкоджень (Joint Damage Scale), об'єднавши вимоги FEMA, HAZUS та інших для уніфікації оцінок серед різних організацій.

Система має можливість самостійно оцінювати сегменти пошкоджених територій. Це вирішує основну проблему, замінюючи повільний ручний процес виявлення руйнувань на швидкий автоматизований аналіз, що є надзвичайно важливим для оперативного направлення рятувальних підрозділів. Те, що раніше займало дні для обробки, тепер виконується всього за кілька хвилин.

Інструмент GNoME (Graph Networks for Materials Exploration), розроблений компанією Google DeepMind, застосовує архітектуру графових нейронних мереж для прогнозування стабільності нових неорганічних кристалів. Ця модель створює кандидати через два паралельні потоки і вдосконалюється за допомогою ітеративного активного навчання, де прогнози перевіряються через квантово-механічні розрахунки теорії функціонала щільності, а результати потім інтегруються назад у навчальний датасет. Завдяки цьому підходу алгоритм виявив 2,2 мільйона нових кристалів, з яких 380 000 були визнані найбільш стабільними, що еквівалентно майже 800 рокам експериментальних досліджень.

Практична перевірка моделі виявила її ефективність: незалежні науковці успішно синтезували 736 запланованих структур, а автоматизована лабораторія в Берклі скористалася отриманими даними для самостійного створення понад 41 нового матеріалу. Відкрита база даних тепер містить 52 000 шаруватих сполук, які можуть стати перспективними надпровідниками, а також 528 кандидатів на роль літій-іонних провідників для акумуляторів нового покоління.

Дослідники DeepMind спільно зі Швейцарським плазмовим центром (EPFL) розробили першу систему на базі глибокого навчання з підкріпленням для автономного керування плазмою в реакторі типу токамак.

Замість використання традиційного підходу, який передбачає 19 окремих алгоритмічних контролерів для кожної магнітної котушки, нова архітектура впроваджує єдину нейронну мережу. Ця нейромережа тисячі разів на секунду адаптує напругу, спираючись на дані від датчиків, щоб підтримувати нестабільну плазму на відстані від стінок токамака. Спочатку систему навчали в симульованому середовищі, а потім вона була застосована на реальному обладнанні для точного налаштування конфігурації плазми.

Завдяки змінам у цільових параметрах алгоритм зміг сформувати та стабілізувати структуру "сніжинки" для розподілу вихлопної енергії. Це також стало основою для конфігурації майбутнього реактора ITER, а також дозволило створити унікальну "краплю", що містить два окремі фрагменти плазми, які перебувають всередині камери одночасно.

Для подальшого вдосконалення ШІ-контролерів розробники випустили TORAX - написаний на фреймворку JAX відкритий симулятор, який моделює внутрішнє ядро плазми та прогнозує зміни її температури, щільності й електричного струму. Такий підхід не лише запобігає пошкодженню стінок реактора та знижує витрати на охолодження завдяки оптимізації форми плазми, але й значно прискорює проведення наукових експериментів. У перспективі ця технологія автономного керування сприятиме проєктуванню токамаків нового покоління, наближаючи створення джерела чистої термоядерної енергії.

Керувати марсоходом у реальному часі неможливо через затримку сигналу, тому нещодавно Perseverance навчили використовувати систему прокладання маршрутів на базі ШІ. Неназвана генеративна ШІ модель проаналізувала високоякісні знімки марсіанської поверхні з камери HiRISE апарата Mars Reconnaissance Orbiter, та цифрову модель висот ділянки, де знаходиться Perseverance. Після визначення критичних особливостей місцевості - виходу корінних порід та скель, небезпечних валунних полів, піщаних ділянок тощо - ШІ модель без втручання людини створила для марсохода безперервний шлях з зазначеними маршрутними точками.

Історичні написи на камені часто зберігаються у пошкодженому та фрагментарному стані. Для вирішення цієї проблеми вчені створили систему Pythia — першу модель, засновану на глибоких нейронних мережах, призначену для відновлення відсутніх символів у пошкоджених античних текстах. Цей алгоритм працює на двох рівнях — окремих символів і цілих слів, що дозволяє йому ефективно аналізувати неповні фрагменти та враховувати довгостроковий контекст напису, наприклад, повторення імен у різних частинах тексту.

Для навчання моделі був розроблений пайплайн PHI-ML, який трансформував найбільшу цифрову архівну колекцію давньогрецьких написів, що датуються періодом з VII століття до нашої ери до V століття нашої ери, в формат, зрозумілий для машин. В ході експериментального тестування Pythia показала помилковість на рівні 30,1% на символічному рівні, що перевершило результати експертів-істориків з Оксфорда, у яких цей показник склав 57,3%. Крім того, у 73,5% випадків правильна відповідь входила до двадцятки найбільш ймовірних варіантів, що робить цей алгоритм ефективним допоміжним інструментом для епіграфістів.

Космічний телескоп Kepler зібрав дані про сотні тисяч зірок, фіксуючи мікроскопічні зміни їхньої яскравості, коли планети проходять перед диском зірки. Однак багато сигналів настільки слабкі, що традиційні алгоритми їх пропускали або плутали з шумом. Дослідники з Google та NASA застосували нейронні мережі для пошуку екзопланет в архівних даних космічного телескопа Kepler. Модель навчили розпізнавати транзитні сигнали - мінімальні падіння яскравості зірки під час проходження планети перед нею - використовуючи набір із 15 000 попередньо перевірених сигналів.

Досягнувши 96% точності в класифікації на тестових даних, алгоритм був націлений на виявлення слабких, раніше не зафіксованих сигналів у 670 зоряних системах, де вже були відомі кілька планет. Нейромережа компанії Google проаналізувала архівні дані та виявила невідомі раніше екзопланети, зокрема вісім нових планет у системі Kepler-90. Таким чином, штучний інтелект продемонстрував, що в старих астрономічних даних приховані нові світи, які чекають на своє відкриття.

Проєкт Event Horizon Telescope об'єднав телескопи з усього світу в один "віртуальний телескоп" розміром з Землю, зібравши 5 петабайтів даних. Оскільки телескопи не покривають всю планету, у даних залишалися величезні прогалини. Алгоритми машинного навчання, зокрема CHIRP, допомогли "зшити" ці фрагменти та реконструювати зображення, заповнивши пропуски найбільш вірогідними варіантами. Це дозволило людству вперше побачити тінь чорної діри M87*, підтвердивши загальну теорію відносності.

Спів горбатих китів довгий час залишався великою таємницею для науковців. Завдяки тривалим записам вдалося отримати тисячі годин звуків, однак аналізу вони майже не піддавалися. Google AI у партнерстві з Національним управлінням океанічних і атмосферних досліджень прогнали ці записи через ШІ, який тепер здатний відрізняти співи китів від корабельних та інших шумів. Завдяки цьому можна відстежувати місцеперебування тварин та корегувати шляхи кораблів, щоб не зашкодити китам. До дослідження співів може долучитися кожен, щоб потенційно знайти нові патерни та зрозуміти "мову китів".

Інші публікації

У тренді

informnauka

Використання будь-яких матеріалів, що розміщені на сайті, дозволяється за умови посилання на данний сайт.

© Новини зі світу науки - informnauka.com. All Rights Reserved.