Штучний інтелект стрімко інтегрувався у наукову діяльність, став звичним помічником в аналізі даних, плануванні досліджень та роботі з текстами. Однак масове використання цієї технології актуалізувало найголовніше питання академічної етики: як забезпечити прозорість публікацій та чесно вказати межі використання алгоритмів у авторській праці?
Відповіддю на цей виклик стала GAIDeT (Generative AI Delegation Taxonomy) – уніфікована таксономія, покликана впорядкувати опис завдань, делегованих штучному інтелекту. Теоретичне обґрунтування та детальний опис цієї системи було представлено у дослідженні, опублікованому в авторитетному журналі Accountability in Research. Автори розробки запропонували науковій спільноті стандартизовану мову для фіксації того, які саме процеси виконувала нейромережа. Зокрема, дослідники, редактори та рецензенти мають змогу чітко розуміти:
• хто використовував інструменти ШІ;
• на якому етапі роботи це відбувалося (формування гіпотез, підготовка огляду літератури, переклад тексту тощо);
• з якою метою це було зроблено.
Щоб перетворити цю наукову методологію на зручний практичний сервіс та максимально спростити процедуру декларування для авторів, на її основі було створено безкоштовний онлайн-інструмент GAIDeT Declaration Generator. Він дозволяє досліднику за лічені хвилини сформувати коректний звіт про використання ШІ: достатньо вказати автора, застосовану модель та обрати конкретні завдання, які були делеговані штучному інтелекту (система містить повний перелік категорій згідно з опублікованою таксономією). У результаті система генерує готовий текст декларації, який відповідає міжнародним вимогам прозорості та може бути без змін доданий до рукопису наукової статті або додатків.