Date: 2020-12-18 09:52 am (UTC)
Я где-то вычитал что с развитием ИИ может возникнуть другая проблема: совершенно непонятная для человека логика принятия решений.
Т.е. предположим ИИ решает некую задачу очень хорошо, статистически результаты практически всегда "в яблочко", но поскольку ИИ построил алгоритм "сам", то понять чем именно он руководствуется - невозможно (говорят это вполне реальный случай уже сейчас с ИИ которые играют в шахматы - шахматные эксперты не всегда понимают как ИИ принимает решение и строит партию).
В случае с алгоритмом который отбраковывает на основе почтового индекса - можно понять эту отбраковку и например попытаться оспорить её в суде (во Франции дискриминация по адресу является юридическим критерием). В случае же с ИИ - невозможно понять почему было принято какое-то решение, как ты считаешь "несправедливое" в отношении тебя, и соответственно - невозможно его ни оспорить, ни "изменить" что-то в себе чтобы алгоритм тебя "полюбил". (Наверное можно обязать ИИ сопровождать каждое решение обоснованием на основе которого это решение было принято, но представляю как сложно будет разбирать это в суде. А если попытаться "себя переделать" то не факт что к следующему анализу ИИ не изменит алгоритм.)
This account has disabled anonymous posting.
If you don't have an account you can create one now.
HTML doesn't work in the subject.
More info about formatting

Profile

green_fr: (Default)
green_fr

June 2025

S M T W T F S
123 4 567
891011121314
15161718192021
22232425262728
2930     

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 7th, 2025 09:24 pm
Powered by Dreamwidth Studios