ШІ+ДОСЛІДЖЕННЯ: ФОРМУЛА ВІДПОВІДАЛЬНОСТІ

Опубліковано: П'ятниця, 17 листопада • 2023

Пропонуємо дослідникам ознайомитися з матеріалом, який містить рекомендації щодо відповідального використання генеративного штучного інтелекту (ШІ) у дослідженнях.

В контексті використання штучного інтелекту у дослідженнях, необхідно враховувати аспекти відповідальності та етики. Здійснення надійного контролю над безпечним впровадженням ШІ у науково-дослідну діяльність вимагає встановлення чітких стандартів та рекомендацій. Серед них наступні:

• обов’язки дослідників та журналів. Обов’язки дослідників доповнюють вимоги щодо перевірки ШІ людиною та містять принаймні наступне:
– вказувати, для яких завдань вони використовували генеративний ШІ у (наукових) дослідницьких публікаціях чи презентаціях;
– визначати, які інструменти генеративного ШІ (включаючи їх версії) вони використовували у своїй роботі;
– попередньо зафіксувати використання генеративного ШІ у наукових дослідженнях та зробити вхідні та вихідні дані інструментів генеративного ШІ доступними разом із публікацією;

• перевірка людиною. Оскільки достовірність генеративних результатів, створених штучним інтелектом, не може бути гарантована, а джерела не можуть бути надійно відстежені та перевірені, завжди потрібно, щоб люди брали на себе остаточну відповідальність за наукові результати. Це означає, що потрібна перевірка людиною принаймні на наступних етапах дослідницького процесу:
– інтерпретація аналізу даних;
– написання рукописів;
– оцінка рукописів (редактори журналів);
– рецензування.

Більш детально ознайомитися з темою можна за покликаннями:

ЖИВІ РЕКОМЕНДАЦІЇ ЩОДО ВІДПОВІДАЛЬНОГО ВИКОРИСТАННЯ ГЕНЕРАТИВНОГО ШТУЧНОГО ІНТЕЛЕКТУ У ДОСЛІДЖЕННЯХ

LIVING GUIDELINES FOR GENERATIVE AI - WHY SCIENTISTS MUST OVERSEE ITS USE