Я где-то вычитал что с развитием ИИ может возникнуть другая проблема: совершенно непонятная для человека логика принятия решений. Т.е. предположим ИИ решает некую задачу очень хорошо, статистически результаты практически всегда "в яблочко", но поскольку ИИ построил алгоритм "сам", то понять чем именно он руководствуется - невозможно (говорят это вполне реальный случай уже сейчас с ИИ которые играют в шахматы - шахматные эксперты не всегда понимают как ИИ принимает решение и строит партию). В случае с алгоритмом который отбраковывает на основе почтового индекса - можно понять эту отбраковку и например попытаться оспорить её в суде (во Франции дискриминация по адресу является юридическим критерием). В случае же с ИИ - невозможно понять почему было принято какое-то решение, как ты считаешь "несправедливое" в отношении тебя, и соответственно - невозможно его ни оспорить, ни "изменить" что-то в себе чтобы алгоритм тебя "полюбил". (Наверное можно обязать ИИ сопровождать каждое решение обоснованием на основе которого это решение было принято, но представляю как сложно будет разбирать это в суде. А если попытаться "себя переделать" то не факт что к следующему анализу ИИ не изменит алгоритм.)
no subject
Date: 2020-12-18 09:52 am (UTC)Т.е. предположим ИИ решает некую задачу очень хорошо, статистически результаты практически всегда "в яблочко", но поскольку ИИ построил алгоритм "сам", то понять чем именно он руководствуется - невозможно (говорят это вполне реальный случай уже сейчас с ИИ которые играют в шахматы - шахматные эксперты не всегда понимают как ИИ принимает решение и строит партию).
В случае с алгоритмом который отбраковывает на основе почтового индекса - можно понять эту отбраковку и например попытаться оспорить её в суде (во Франции дискриминация по адресу является юридическим критерием). В случае же с ИИ - невозможно понять почему было принято какое-то решение, как ты считаешь "несправедливое" в отношении тебя, и соответственно - невозможно его ни оспорить, ни "изменить" что-то в себе чтобы алгоритм тебя "полюбил". (Наверное можно обязать ИИ сопровождать каждое решение обоснованием на основе которого это решение было принято, но представляю как сложно будет разбирать это в суде. А если попытаться "себя переделать" то не факт что к следующему анализу ИИ не изменит алгоритм.)