2021-12-12 15:03:14
Ко вчерашнему посту про топологию. DeepMind показали, как использовать машинное обучение для исследования гипотез в фундаментальной математике.
Зачастую в математике хочется искать взаимосвязи между объектами разных типов, которые на первый взгляд могут быть совершенно непохожи. Например, раньше геометрические задачки решались с помощью картинок и рассуждений из разряда: сторона AB перпендикулярна стороне BC, поэтому бла-бла-бла... Так вот в 17 веке пришел Декарт и сказал: "За*бало картинки рисовать, когда решаешь сложные задачки, там вообще них*я не понятно. Давайте введем систему координат". Так возникли векторы — стрелочки на графике. А стрелочкам на графике соответствуют тройки циферок (x, y, z). А эти тройки циферок можно соединять в таблички — матрицы. И внезапно, вместо того чтобы строить перпендикуляры на графике, вы теперь можете взять векторное произведение, которое можно вычислить как определитель специальной матрицы, т.е. тупо взять циферки и подставить их в формулу. И все такие: "Них*я себе!". А там еще и Ньютон со своим мат. анализом подъехал, короче началось бурное развитие математики за счет слияния геометрической интуиции с формальными вычислениями.
И развилось все до таких масштабов, что теперь математики прикидывают, че там как узлы завязываются и поверхности скручиваются в 10 мерных пространствах, чтобы внезапным образом физики могли соединить квантовую механику с теорией относительности Эйнштейна. В общем, все сложно. Руководствуясь одной лишь человеческой интуицией, вы будете двигаться медленно.
Так вот математики совместно с DeepMind смогли с помощью машинного обучения найти взаимосвязь (ведь внезапно именно в поиске взаимосвязей очень хорошо показывает себя ИИ) между геометрическим и алгебраическим представлениями узлов, создав новый инвариант "natural slope". В этом моменте я уже совсем перестал понимать детали. Буду рад пояснением от опытных математиков. А со своей стороны могу попробовать провести вольную интерпретацию.
Инварианты нужны, чтобы отличать объекты друг от друга. Это особенно актуально, когда мы работаем со сложными объектами в многомерных пространствах. Например, сферу нельзя деформировать без разрывов в поверхность бублика (тор). Потому что в торе есть дырка, а в сфере нет дырок. Внезапно оказывается, что это описывается инвариантом под названием "Эйлерова характеристика", который вылез, как забавное свойство многогранников. Заключается оно в том, что для любого выпуклого многогранника верно, что В - Р + Г = 2, где В - число вершин, Р - ребер, Г- граней. Так вот у сферы эйлерова характеристика равна 2, а у тора 0. В геометрическом смысле это можно интерпретировать, что тор эквивалентен сфере с одной ручкой (гире).
Честь и хвала DeepMind. Они выложили статью на человеческом языке в блоге, на чуть более сложном языке в Nature, а также открыли доступ к коду в колабе.
38 viewsedited 12:03