Как работает вселенная. Введение в современную космологию - Сергей Парновский
Шрифт:
Интервал:
Определив по пекулярным скоростям общее поле скоростей крупномасштабных нехаббловских движений галактик, астрономы восстанавливают распределение полной плотности материи, включая темную материю[75]. Для этого был разработан ряд методов, наиболее удачным из которых является так называемый метод POTENT. Восстановленные с его помощью карты распределения плотности материи показывают хорошее качественное согласие с картами инфракрасных источников, что свидетельствует в пользу правильности его результатов. В частности, на этих распределениях отчетливо видны все известные аттракторы, положение которых соответствует их наблюдаемому положению. Более того, были получены оценки масс этих аттракторов, которые оказались существенно больше оценок масс светящейся компоненты, что указывает на большую долю темной материи.
Кроме того, поскольку развитие флуктуаций происходило при определенных значениях космологических параметров, исследование нехаббловских движений дает возможность получить независимые оценки этих параметров. В частности, автором этой книги, посвятившим не один год исследованиям крупномасштабных нехаббловских движений плоских спиральных галактик, видимых с ребра, была среди прочих получена оценка плотности материи Ωm = 0,26, совпадающая с оценками, полученными другими, куда более точными методами.
Со скоростью роста крупномасштабной структуры Вселенной связано еще одно подтверждение существования темной материи. К концу 1970-х гг. еще не была открыта степень анизотропии реликтового излучения, но уже стало понятно, что она очень мала. В связи с этим возник вопрос: каким образом флуктуации, крайне слабые в эпоху рекомбинации, успели к настоящему моменту развиться и образовать хорошо наблюдаемую крупномасштабную структуру Вселенной? Даже вопрос формирования отдельных галактик был далеко не очевидным. После того как измерили флуктуации реликтового излучения на уровне тысячных долей процента, вопрос не разрешился. Примерно в это же время появились первые сообщения о том, что нейтрино имеют ненулевую массу покоя. Это позволило временно снять остроту данного вопроса. Идея состояла в том, что помимо флуктуаций реликтового излучения, связанных с обычной материей, имелись также существенно большие флуктуации плотности массивных «холодных» нейтрино, т. е. движущихся существенно медленнее скорости света. Обычная материя после рекомбинации начала падать в гравитационные ямы, образованные нейтрино, что и позволило сформировать крупномасштабную структуру. Современные оценки массы нейтрино заставляют говорить о нейтрино как о горячей материи, но в то время это было еще неизвестно.
Заметим, что после окончания рекомбинации наступил долгий период, длительностью около 300 млн лет, получивший у космологов название «темные века». Дело в том, что в эту эпоху отсутствовали источники света, так как рекомбинация уже закончилась, а звезды еще не появились. Поэтому никакой информации, относящейся к этой эпохе, у нас нет. Соответственно, о том, как развивались флуктуации, мы можем судить только на основании теоретических моделей.
Отметим, что модели, основанные на ненулевой массе нейтрино, были своего рода прообразами современной ΛCDM-космологии. Они еще не включали космологическую постоянную, но уже имели холодную темную материю в виде нейтрино. Любопытно, что сейчас нейтрино также рассматриваются в качестве кандидата на роль темной материи. Но это – другие нейтрино, не привычные для физики электронные нейтрино, а некие экзотические очень массивные нейтрино, еще не отрытые экспериментально. При этом существуют варианты, что эти гипотетические нейтрино являются стерильными, т. е. не вступают ни в какие взаимодействия, кроме гравитационного. В этом случае их просто невозможно идентифицировать экспериментальным путем.
Идея обычных нейтрино как катализатора роста крупномасштабной структуры Вселенной продержалась недолго. Очередное понижение верхней оценки анизотропии реликтового излучения привело к тому, что эта модель уже не вписывалась в наблюдения. Но после появления идеи о существовании космологической постоянной проблема опять стала решаемой.
В настоящее время наиболее плодотворным методом исследования образования структур является компьютерное моделирование, в котором моделируется гравитационное взаимодействие большого количества (миллиарды и больше) точечных масс. Для расчетов используются кластеры из большого числа процессоров. Результаты моделирования однозначно показывают, что в отсутствие темной материи галактики не успели бы сформироваться. Модели также используются для получения распределений темной материи внутри галактик и скоплений. Пример результатов такого моделирования показан на рис. 4.6.
Самая старая звезда, известная сегодня, – это HD 140283, которая случайно оказалась по соседству с нами (190 св. лет от Солнца). Ее возраст оценивается в (14,5 ± 0,8)×109 лет, т. е. она родилась в первые несколько сотен миллионов лет существования Вселенной. В центре нашей Галактики есть 23 звезды с сопоставимым возрастом, так что они должны быть довольно распространенными. Впрочем, это может просто означать, что наши методы оценки возраста звезд не очень хорошо работают с такими старыми звездами. Самой старой (и самой дальней) галактикой, которую мы наблюдали когда-либо, является довольно большая (только в 25 раз меньше Млечного Пути) галактика GN-Z11, обнаруженная в марте 2016 г., имеющая z = 11,1, что соответствует самому началу эпохи реионизации. В отличие от старых звезд, мы абсолютно уверены в правильности оценки возраста этой галактики, который оставляет в лучшем случае всего несколько сотен миллионов лет для ее формирования.
Моделирование показало, что без темной материи формирование наблюдаемой крупномасштабной структуры заняло бы гораздо больше времени. Оно также показывает распределения темной материи в галактиках и скоплениях.
Единственная проблема, возникшая в результате моделирования, – это проблема нехватки галактик-спутников. В компьютерных симуляциях, в отличие от реальных наблюдений, вокруг массивных галактик присутствует большее количество карликовых галактик. Есть две точки зрения на эту проблему. Оптимисты говорят, что вычисления, использующие большее количество точек, дают немного лучшие результаты, чем более старые, и вообще компьютерное моделирование может быть не очень адекватно для описания таких мелких деталей. Дело в том, что даже число звезд в нашей Галактике того же порядка, что число точек в этих симуляциях. С другой стороны, астрономы активизировали поиск галактик-спутников и обнаружили немалое их количество, но говорят, что такие объекты очень трудно обнаружить. Так что вполне возможно, что эта проблема носит чисто технический характер. Пессимисты считают, что по-прежнему существует расхождение в количестве галактик-спутников и проблема остается актуальной.
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!