Поэтому до тех пор, пока правила, касающиеся «запрещенных» и «высокорисковых» систем, выполняют свою работу, текущие правила модели GPAI, вероятно, пока приемлемы и со временем могут быть постепенно усилены.
3. Подотчетность по-прежнему не ясна.
Кто несет ответственность, если ИИ выходит из строя?
пределяет две ключевые роли: «поставщик» и «развертыватель». Существуют также другие роли, такие как «импортер» и «дистрибьютор», но давайте сосредоточимся на первых двух.
«Поставщик» — это тот, кто разработал и вывел на рынок систему ИИ. По умолчанию «поставщик» будет нести ответственность за обеспечение соответствия своей системы ИИ Закону.
«Развертыватель» — это пользователь систем база данных телеграмм марокко ы ИИ. Как правило, «развертыватель» не будет нести ответственности за систему ИИ, если только он не внесет «значительные изменения» в систему ИИ (в этом случае развертыватель будет считаться новым поставщиком).
Но что считается «значительным изменением»? Это неясно. Это особенно сложно, когда дело доходит до тонкой настройки.
Например, когда развертыватель обучает модель на своих собственных данных, считается ли это «значительным изменением»? Если так, то развертыватель будет нести ответственность за эту тонкую настройку модели.
Этот вопрос становится все более сложным по мере того, как модель передается вниз по цепочке создания стоимости и настраивается на каждом этапе. Это то, что законодатели ЕС должны прояснить.
Закон ЕС об искусственном интеллекте о
-
- Posts: 298
- Joined: Thu Jan 02, 2025 7:08 am