НОВЫЕ ИГРЫЛУЧШИЕ ИГРЫФОРУМ 184 Всего сообщений: 305026
+  Форум FlashPlayer.ru
|-+  Общение
| |-+  О чем-то интересном
| | |-+  Город открытий. (Модератор: bobegor)
| | | |-+  всё о науке

Автор Тема: всё о науке  (Прочитано 15784 раз)

0 Пользователей и 1 Гость просматривают эту тему.

всё о науке
« : 21 Августа 2006, 15:08:28 »
здесь пишем статьи о науке №1 большой взрыв                 


Астрономы употребляют термин «Большой взрыв» в двух взаимосвязанных значениях. С одной стороны этим термином называют само событие, ознаменовавшее зарождение Вселенной около 15 миллиардов лет назад; с другой — весь сценарий ее развития с последующим расширением и остыванием.

Концепция Большого взрыва появилась с открытием в 1920-е годы закона Хаббла. Этот закон описывает простой формулой результаты наблюдений, согласно которым видимая Вселенная расширяется и галактики удаляются друг от друга. Нетрудно, следовательно, мысленно «прокрутить пленку назад» и представить, что в исходный момент, миллиарды лет назад, Вселенная пребывала в сверхплотном состоянии. Такая картина динамики развития Вселенной подтверждается двумя важными фактами.

Космический микроволновой фон
В 1964 году американские физики Арно Пензиас и Роберт Уилсон обнаружили, что Вселенная наполнена электромагнитным излучением в микроволновом диапазоне частот. Последовавшие измерения показали, что это характерное классическое излучение черного тела, свойственное объектам с температурой около –270°С (3 К), т. е. всего на три градуса выше абсолютного нуля.

Простая аналогия поможет вам интерпретировать этот результат. Представьте, что вы сидите у камина и смотрите на угли. Пока огонь горит ярко, угли кажутся желтыми. По мере затухания пламени угли тускнеют до оранжевого цвета, затем до темно-красного. Когда огнь почти затух, угли перестают испускать видимое излучение, однако, поднеся к ним руку, вы почувствуете жар, что означает, что угли продолжают излучать энергию, но уже в инфракрасном диапазоне частот. Чем холоднее объект, тем ниже излучаемые им частоты и больше длина волн (см. Закон Стефана—Больцмана). По сути, Пензиас и Уилсон определили температуру «космических углей» Вселенной после того, как она остывала на протяжении 15 миллиардов лет: ее фоновое излучение оказалось в диапазоне микроволновых радиочастот.

Исторически это открытие и предопределило выбор в пользу космологической теории Большого взрыва. Другие модели Вселенной (например, теория стационарной Вселенной) позволяют объяснить факт расширения Вселенной, но не наличие космического микроволнового фона.

Изобилие легких элементов
Ранняя Вселенная была очень горячей. Даже если протоны и нейтроны при столкновении объединялись и формировали более тяжелые ядра, время их существования было ничтожным, потому что уже при следующем столкновении с еще одной тяжелой и быстрой частицей ядро снова распадалось на элементарные компоненты. Выходит, что с момента Большого взрыва должно было пройти около трех минут, прежде чем Вселенная остыла настолько, чтобы энергия соударений несколько смягчилась и элементарные частицы начали образовывать устойчивые ядра. В истории ранней Вселенной это ознаменовало открытие окна возможностей для образования ядер легких элементов. Все ядра, образовывавшиеся в первые три минуты, неизбежно распадались; в дальнейшем начали появляться устойчивые ядра.

Однако это первичное образование ядер (так называемый нуклеосинтез) на ранней стадии расширения Вселенной продолжался очень недолго. Вскоре после первых трех минут частицы разлетелись так далеко друг от друга, что столкновения между ними стали крайне редкими, и это ознаменовало закрытие окна синтеза ядер. В этот краткий период первичного нуклеосинтеза в результате соударений протонов и нейтронов образовались дейтерий (тяжелый изотоп водорода с одним протоном и одним нейтроном в ядре), гелий-3 (два протона и нейтрон), гелий-4 (два протона и два нейтрона) и, в незначительном количестве, литий-7 (три протона и четыре нейтрона). Все более тяжелые элементы образуются позже — при формировании звезд (см. Эволюция звезд).

Теория Большого взрыва позволяет определить температуру ранней Вселенной и частоту соударений частиц в ней. Как следствие, мы можем рассчитать соотношение числа различных ядер легких элементов на первичной стадии развития Вселенной. Сравнив эти прогнозы с реально наблюдаемым соотношением легких элементов (с поправкой на их образование в звездах), мы обнаруживаем впечатляющее соответствие между теорией и наблюдениями. По моему мнению, это лучшее подтверждение гипотезы Большого взрыва.

Помимо двух приведенных выше доказательств (микроволновой фон и соотношение легких элементов) недавние работы (см. Инфляционная стадия расширения Вселенной) показали, что сплав космологии Большого взрыва и современной теории элементарных частиц разрешает многие кардинальные вопросы устройства Вселенной. Конечно, проблемы остаются: мы не можем объяснить саму первопричину возникновения Вселенной; не ясно нам и то, действовали ли в момент ее зарождения нынешние физические законы. Но убедительных аргументов в пользу теории Большого взрыва на сегодняшний день накоплено более чем достаточно.



Добавлено спустя: 2 мин.
еллементы еффект допплера


Вам, наверняка, хоть раз в жизни доводилось стоять у дороги, по которой проносится машина со спецсигналом и включенной сиреной. Пока вой сирены приближается, его тон выше, затем, когда машина поравняется с вами, он понижается, и, наконец, когда машина начинает удаляться, он понижается еще, и получается знакомое: ййййииииээээЭААААОоооуууумммм — такой примерно звукоряд. Сами того, возможно, не сознавая, вы при этом наблюдаете фундаментальнейшее (и полезнейшее) свойство волн.

Волны — вообще вещь странная. Представьте себе пустую бутылку, болтающуюся неподалеку от берега. Она гуляет вверх-вниз, к берегу не приближаясь, в то время как вода, казалось бы, волнами набегает на берег. Но нет — вода (и бутылка в ней) — остаются на месте, колеблясь лишь в плоскости, перпендикулярной поверхности водоема. Иными словами, движение среды, в которой распространяются волны, не соответствует движению самих волн. По крайней мере, футбольные болельщики хорошо это усвоили и научились использовать на практике: пуская «волну» по стадиону, они сами никуда не бегут, просто встают и садятся в свой черед, а «волна» (в Великобритании это явление принято называть «мексиканской волной») бежит вокруг трибун.

Волны принято описывать их частотой (число волновых пиков в секунду в точке наблюдения) или длиной (расстояние между двумя соседними гребнями или впадинами). Эти две характеристики связаны между собой через скорость распространения волны в среде, поэтому, зная скорость распространения волны и одну из главных волновых характеристик, можно легко рассчитать другую.

Как только волна пошла, скорость ее распространения определяется только свойствами среды, в которой она распространяется, — источник же волны никакой роли больше не играет. По поверхности воды, например, волны, возбудившись, далее распространяются лишь в силу взаимодействия сил давления, поверхностного натяжения и гравитации. Акустические же волны распространяются в воздухе (и иных звукопроводящих средах) в силу направленной передачи перепада давлений. И ни один из механизмов распространения волн не зависит от источника волны. Отсюда и эффект Доплера.

Давайте еще раз задумаемся над примером с воющей сиреной. Предположим для начала, что спецмашина стоит. Звук от сирены доходит до нас потому, что упругая мембрана внутри нее периодически воздействует на воздух, создавая в нем сжатия — области повышенного давления, — чередующиеся с разрежениями. Пики сжатия — «гребни» акустической волны — распространяются в среде (воздухе), пока не достигнут наших ушей и не воздействуют на барабанные перепонки, от которых поступит сигнал в наш головной мозг (именно так устроен слух). Частоту воспринимаемых нами звуковых колебаний мы по традиции называем тоном или высотой звука: например, частота колебаний 440 герц в секунду соответствует ноте «ля» первой октавы. Так вот, пока спецмашина стоит, мы так и будем слышать неизмененный тон ее сигнала.

Но как только спецмашина тронется с места в вашу сторону, добавится новый эффект. За время с момента испускания одного пика волны до следующего машина проедет некоторое расстояние по направлению к вам. Из-за этого источник каждого следующего пика волны будет ближе. В результате волны будут достигать ваших ушей чаще, чем это было, пока машина стояла неподвижно, и высота звука, который вы воспринимаете, увеличится. И, наоборот, если спецмашина тронется в обратном направлении, пики акустических волн будут достигать ваших ушей реже, и воспринимаемая частота звука понизится. Вот и объяснение тому, почему при проезде машины со спецсигналами мимо вас тон сирены понижается.

Мы рассмотрели эффект Доплера применительно к звуковым волнам, но он в равной мере относится и к любым другим. Если источник видимого света приближается к нам, длина видимой нами волны укорачивается, и мы наблюдаем так называемое фиолетовое смещение (из всех видимых цветов гаммы светового спектра фиолетовому соответствуют самые короткие длины волн). Если же источник удаляется, происходит кажущееся смещение в сторону красной части спектра (удлинение волн).

Этот эффект назван в честь Кристиана Иоганна Доплера, впервые предсказавшего его теоретически. Эффект Доплера меня на всю жизнь заинтересовал благодаря тому, как именно он был впервые проверен экспериментально. Голландский ученый Кристиан Баллот (Christian Buys Ballot, 1817–1870) посадил духовой оркестр в открытый железнодорожный вагон, а на платформе собрал группу музыкантов с идеальным слухом. (Идеальным слухом называется умение, выслушав ноту, точно назвать её.). Всякий раз, когда состав с музыкальным вагоном проезжал мимо платформы, духовой оркестр тянул какую-либо ноту, а наблюдатели (слушатели) записывали слышащуюся им нотную партитуру. Как и ожидалось, кажущаяся высота звука оказалась в прямой зависимости от скорости поезда, что, собственно, и предсказывалось законом Доплера.

Эффект Доплера находит широкое применение и в науке, и в быту. Во всем мире он используется в полицейских радарах, позволяющих отлавливать и штрафовать нарушителей правил дорожного движения, превышающих скорость. Пистолет-радар излучает радиоволновой сигнал (обычно в диапазоне УКВ или СВЧ), который отражается от металлического кузова вашей машины. Обратно на радар сигнал поступает уже с доплеровским смещением частоты, величина которого зависит от скорости машины. Сопоставляя частоты исходящего и входящего сигнала, прибор автоматически вычисляет скорость вашей машины и выводит ее на экран.

Несколько более эзотерическое применение эффект Доплера нашел в астрофизике: в частности, Эдвин Хаббл, впервые измеряя расстояния до ближайших галактик на новейшем телескопе, одновременно обнаружил в спектре их атомного излучения красное доплеровское смещение, из чего был сделан вывод, что галактики удаляются от нас (см. Закон Хаббла). По сути, это был столь же однозначный вывод, как если бы вы, закрыв глаза, вдруг услышали, что тон звука двигателя машины знакомой вам модели оказался ниже, чем нужно, и сделали вывод, что машина от вас удаляется. Когда же Хаббл обнаружил к тому же, что чем дальше галактика, тем сильнее красное смещение (и тем быстрее она от нас улетает), оно понял, что Вселенная расширяется. Это стало первым шагом на пути к теории Большого взрыва — а это вещь куда более серьезная, чем поезд с духовым оркестром.



Добавлено через: 1 мин. 16 сек

 
о допплере


Кристиан Иоганн ДОПЛЕР
Christian Johann Doppler,  1803–53
Австрийский физик. Родился в Зальцбурге в семье каменщика. Окончил Политехнический институт в Вене, остался в нем на младших преподавательских должностях до 1835 года, когда получил предложение возглавить кафедру математики Пражского университета, что в последний момент заставило его отказаться от назревшего решения эмигрировать в Америку, отчаявшись добиться признания в академических кругах на родине. Закончил свою карьеру в должности профессора Венского королевского имперского университета.


Добавлено через: 1 мин. 10 сек

еффект зеемана

Долгая традиция изучения влияния магнитного поля на свет, испускаемый атомами, восходит к Майклу Фарадею. Сегодня неизбежность существования эффектов подобного влияния кажется нам очевидной, поскольку мы знаем, что электроны и другие атомы обладают спином, то есть ведут себя подобно микроскопическим электрически заряженным волчкам, образующим вокруг себя магнитное поле, и, по сути, представляют собой микроскопические магниты (см. Опыт Штерна—Герлаха). В конце XIX столетия, когда Питер Зееман решил провести серию опытов и проверить, обладают ли атомы магнитными свойствами, всё было, однако, далеко не столь очевидно. Ученый поместил крошечный образец натрия между полюсами регулируемого магнита и стал изучать влияние магнитного поля на спектральные линии излучения атомов натрия (см. Спектроскопия). Выяснилось, что при усилении магнитного поля спектральные линии в каждой группе частот размываются, то есть в них появляются новые частоты излучения. Так было впервые однозначно подтверждено существование эффекта, который впоследствии будет назван эффектом Зеемана.

Чтобы понять его природу, проще всего обратиться к модели атома Бора и задуматься о том, как именно испускается свет. Электрон совершает квантовый скачок с высшей орбиты на низшую (или, что то же самое, с высшего энергетического уровня на низший), испуская при этом фотон строго определенной частоты, соответствующей разности энергий между двумя энергетическими уровнями. Теперь, если предположить, что электрон в действительности представляет собой микроскопический магнит, а сам атом помещен во внешнее магнитное поле, энергия электрона будет зависеть от полярности его магнитного спина — если магнитное поле электрона на орбите однонаправлено внешнему магнитному полю, он обладает одной энергией, если же оно ориентировано в противоположном направлении, то другой. То есть электроны с противоположным магнитным спином, находящиеся на одной орбитали, будут обладать несколько различающимися энергиями, и каждый энергетический уровень окажется расщеплен на два близких подуровня. Соответственно, там, где раньше имелась единственная возможная энергия квантового перехода между двумя уровнями, теперь имеется четыре возможных энергии перехода. На спектре излучения это должно отразиться таким образом, что вместо одной четко выделенной спектральной линии (частоты излучения) в мощном магнитном поле появятся четыре близко расположенных равноудаленных спектральных линии (частоты).

В первоначальном опыте Зееману не удалось различить эти четыре спектральные линии, поскольку несовершенство спектроскопа и недостаточная мощность магнита приводили к тому, что вместо расщепления наблюдалось простое размытие спектральных линий. Однако позже ученому удалось усовершенствовать аппаратуру и выявить четыре отдельных спектральных линии на месте одной размытой, как это и предсказывала теория. Для этого потребовалось усилить магнитное поле, и Зееману даже удалось доказать, что расстояние между расщепленными линиями спектра напрямую зависит от напряженности магнитного поля.

Эффект Зеемана впоследствии нашел очень полезное применение в астрономии, поскольку по расщеплению линий в спектре излучения небесных тел можно судить о напряженности их магнитных полей. Например, именно по эффекту Зеемана астрофизикам удалось установить, что пятна на Солнце являются следствием возмущения мощных магнитных полей вблизи его поверхности — солнечных магнитных бурь.



Добавлено через: 47 сек

о зеемане

Питер ЗЕЕМАН
Pieter Zeeman,  1865–1943
Нидерландский физик. Родился в Зоннемайрe (Zonnemaire) в семье священника и всю жизнь провел на родине за исключением периода обучения в Лейденском университете. Завершив в Лейдене под научным руководством Хендрика Лоренца (Hendrick Lorenz, 1853–1928) работу по выявлению теоретически предсказанного Лоренцем расщепления спектров атомов в магнитном поле, в 1900 году занял кресло профессора физики Амстердамского университета и занимал его до выхода на пенсию. Прославился как искуснейший экспериментатор и конструктор измерительных приборов, обеспечивавших революционную по тем временам точность измерений. В 1902 году разделил с Лоренцем Нобелевскую премию по физике. В 1918 году дал экспериментальное подтверждение принципа эквивалентности гравитационной и инерциальной масс.
 
 

 
 
 


Добавлено через: 5 мин. 52 сек

жека не удаляй пожалуйста

В первые десятилетия ХХ века ученые всё больше осознавали, что объекты микромира обладают одновременно свойствами и частиц, и волн (см. Принцип дополнительности). Начало этому процессу положило предложенное Альбертом Эйнштейном объяснение фотоэлектрического эффекта, согласно которому любое электромагнитное излучение, включая свет, представляет собой пучки фотонов. Открытый же американским физиком Артуром Комптоном эффект рассеяния фотонов на свободных электронах стал еще одним подтверждением квантовой природы фотона.

Эксперимент, проделанный Комптоном, описать несложно. Пучок электромагнитных лучей (Комптон использовал рентгеновские лучи) направляется на кристалл, после чего измеряются энергии и угол отклонения рассеянных лучей. В рамках классической теории взаимодействия лучей с веществом (до постулирования принципов квантовой механики) энергия отраженного излучения не должна отличаться от энергии исходного излучения. Комптон же получил принципиально иную картину: энергия рассеянной волны отличалась от энергии исходной волны, и эта разница зависела от угла рассеяния, достигая максимума при угле 90°. Единственным способом дать разумную интерпретацию полученным Комптоном результатам было рассматривать взаимодействие лучей с атомами как столкновение исходящей частицы (фотона) с электроном. Как и два бильярдных шара, эти две частицы, взаимодействуя, отскакивают друг от друга. А поскольку электрон движется медленно, он, в общем случае, должен приобретать энергию при этом столкновении, в то время как фотон эту же энергию теряет.

После публикации Комптоном в начале 1923 года полученных результатов среди физиков осталось мало сомневающихся в реальности фотонов. Сегодня эффект Комптона находит применение в астрофизике: гамма-лучи от космических объектов подвергаются многократному рассеянию, пока их энергия не падает до длин волн рентгеновской части спектра, после чего их можно анализировать на стандартных рентгенографических установках. Подобный детектор был в 1991 году выведен НАСА на орбиту в составе Гамма-лучевой обсерватории имени Комптона.



Добавлено через: 7 мин. 3 сек

Артур Холли КОМПТОН
Arthur Holly Compton,  1892–1962
Американский физик. Родился в Вустере, штат Огайо (Wooster, Ohio), в семье профессора философии. В 1916 году окончил Принстонский университет. В первые годы после окончания университета работал в частной промышленной лаборатории, где участвовал в создании первых ламп дневного света. Вернувшись к академическим исследованиям, большую часть времени проработал в Чикагском университете, где в 1923 году стал профессором физики. За открытие и объяснение эффекта Комптона он был удостоен Нобелевской премии по физике за 1927 год. Во время Второй мировой войны Комптон руководил металлургической лабораторией при Чикагском университете, участвовавшей в работе по созданию «уранового котла» в рамках Манхэттенского проекта. После окончания Второй мировой войны Комптон много своего времени стал уделять общественно-политической деятельности. В частности, с 1946-го по 1948 год состоял членом Комиссии по высшему образованию при президенте США.


Добавлено спустя: 6 мин.
Еффект Кориолиса

Представьте, что кто-то, находясь на Северном полюсе, бросил мяч кому-то, кто находится на экваторе. Пока мяч летел, Земля немного повернулась вокруг своей оси, и ловящий успел сместиться к востоку. Если бросающий, целясь мячом, не учел этого движения Земли, мяч упал западнее (или левее) ловящего. С точки зрения человека на экваторе получается, что мяч летел левее, чем надо, с самого начала — как только его выпустил из рук бросающий, — и до тех пор, пока не приземлился.

Согласно законам механики Ньютона, чтобы движущееся прямолинейно тело отклонилось от изначально заданной траектории, на него должна действовать какая-то внешняя сила. Значит, ловящий на экваторе должен сделать вывод, что брошенный мяч отклонился от прямолинейной траектории под действием некоей силы. Если бы мы смогли посмотреть на летящий мяч из космоса, мы бы увидели, что на самом деле никакая сила на мяч не действовала. Отклонение же траектории было вызвано тем, что Земля успела повернуться под мячом, пока он летел по прямой. Таким образом, действует в подобной ситуации какая-то сила или нет, — это целиком зависит от системы отсчета, в которой находится наблюдатель.

И подобное явление неизбежно возникает, когда есть какая-нибудь вращающаяся система координат — например, Земля. Для описания этого явления физики часто используют выражение фиктивная сила, имея в виду, что сила «реально» отсутствует, просто наблюдателю во вращающейся системе отсчета кажется, что она действует (другой пример фиктивной силы — это центробежная сила). И противоречий здесь нет никаких, поскольку оба наблюдателя единодушны относительно реальной траектории полета мяча и уравнений, ее описывающих. Расходятся они лишь в терминах, которые они используют для описания этого движение.

Фиктивная сила, которая действует в приведенном выше примере, называется силой Кориолиса — в честь французского физика Гаспара Кориолиса, впервые описавшего этот эффект. Интересно, что именно сила Кориолиса определяет направление вращения вихрей циклонов, которые мы наблюдаем на снимках, полученных с метеоспутников. Изначально воздушные массы начинают прямолинейно устремляться из областей высокого атмосферного давления в области пониженного атмосферного давления, однако сила Кориолиса заставляет их закручиваться по спирали. (С тем же успехом можно утверждать, что воздушные потоки продолжают двигаться прямолинейно, но, поскольку Земля под ними поворачивается, нам, находящимся на поверхности планеты, кажется, что они движутся по спирали.) Вернемся к примеру с бросанием мяча с полюса к экватору. Нетрудно понять, что в Северном и Южном полушариях сила Кориолиса действует на движущееся тело в прямо противоположных направлениях. Именно поэтому в Северном полушарии вихри циклонов кажутся закрученными против часовой стрелки, а в Южном — по часовой стрелке.

Отсюда происходит бытующее в народе убеждение, что вода в канализационных отверстиях ванн и раковин в двух полушариях вращается в противоположных направлениях, — якобы это обусловлено эффектом Кориолиса. (Помню, когда я сам был студентом, мы всей группой, включая одного аргентинца, не один час провели в мужском туалете физического факультета Стэнфордского университета, наблюдая за потоками воды в раковине, в надежде подтвердить или опровергнуть эту гипотезу.) На самом же деле, хотя и верно, что сила Кориолиса действует противоположно в двух полушариях, направление закручивания воды в сливной воронке лишь отчасти определяется этим эффектом. Дело в том, что вода долгое время течет по водопроводным трубам, при этом в потоке воды образуются течения, которые, хоть их и трудно увидеть простым глазом, продолжают закручивать струю воды и тогда, когда она льется в раковину. Кроме того, когда вода уходит в сливное отверстие, могут создаваться похожие течения. Именно они определяют направление движения воды в воронке, поскольку силы Кориолиса оказываются гораздо слабее этих течений. В обычной жизни направление закручивания воды в сливной воронке в северном и южном полушариях больше зависит от конфигурации канализационной системы, чем от действия природных сил.

Однако все-таки нашлась группа экспериментаторов, которой хватило терпения повторить этот опыт в «чистых» условиях. Они взяли идеально симметричную раковину сферической формы, устранили канализационные трубы, позволив воде проходить сквозь сливное отверстие свободно, оборудовали сливное отверстие автоматической заслонкой, которая открывалась лишь после того, как в воде успокаивались любые остаточные токи, — и увидели-таки эффект Кориолиса в действии! Несколько раз им даже удалось увидеть, как вода сначала под слабым внешним воздействием закручивалась в одну сторону, а затем силы Кориолиса брали верх, и направление спирали менялось на противоположное!



Добавлено спустя: 1 мин.
Гюстав Гаспар КОРИОЛИС
Gaspard Gustave de Coriolis,  1792–1843
Французский физик и инженер. Родился в Париже. Окончил престижную Политехническую школу, которую со временем возглавил в качестве директора. (Он оснастил аудитории «водяными холодильниками» — прообразами кондиционеров, — которые работают до сих пор, и студенты так и называют их «кориолями».) Основной научный интерес ученого лежал в области разработки движущихся частей различных механизмов. В частности, Кориолис — один из изобретателей подшипников. Однако его интересы не носили чисто прикладного характера: занимаясь, в общем-то, практической механикой, он дал современные определения работы и кинетической энергии.
 
 


Добавлено через: 12 мин. 22 сек

Teendal's effect
Эффект Тиндаля был открыт в результате исследования ученым взаимодействия световых лучей с различными средами. Он выяснил, что при прохождении лучей света через среду, содержащую взвесь мельчайших твердых частиц — например, пыльный или задымленный воздух, коллоидные растворы, мутное стекло — эффект рассеяния уменьшается по мере изменения спектральной окраски луча от фиолетово-синей к желто-красной части спектра. Если же пропустить через мутную среду белый, например солнечный, свет, который содержит полный цветовой спектр, то свет в синей части спектра частично рассеется, в то время как интенсивность зелено-желто красной части света останется практически прежней. Поэтому, если смотреть на рассеянный свет после прохождения им замутненной среды в стороне от источника света, он покажется нам синее, чем исходный свет. Если же смотреть на источник света вдоль линии рассеяния, то есть через замутненную среду, источник покажется нам краснее, чем он есть на самом деле. Именно поэтому дымка от лесных пожаров, например, кажется нам голубовато-фиолетовой.

Эффект Тиндаля возникает при рассеянии на взвешенных частицах, размеры которых превышают размеры атомов в десятки раз. При укрупнении частиц взвеси до размеров порядка 1/20 длины световых волн (примерно от 25 нм и выше), рассеяние становится полихромным, то есть свет начинает рассеиваться равномерно во всём видимом диапазоне цветов от фиолетового до красного. В результате эффект Тиндаля пропадает. Вот почему густой туман или кучевые облака кажутся нам белыми — они состоят из плотной взвеси водяной пыли с диаметром частиц от микронов до миллиметров, что значительно выше порога рассеяния по Тиндалю.

Можно подумать, что небо кажется нам сине-голубым благодаря эффекту Тиндаля, но это не так. В отсутствие облачности или задымления небо окрашивается в сине-голубой цвет благодаря рассеянию «дневного света» на молекулах воздуха. Такой тип рассеяния называется рассеянием Рэлея (в честь сэра Рэлея; см. Критерий Рэлея). При рассеянии Рэлея синий и голубой свет рассеивается даже сильнее, чем при эффекте Тиндаля: например, синий свет с длиной волны 400 нм рассеивается в чистом воздухе в девять раз сильнее красного света с длиной волны 700 нм. Вот почему небо кажется нам синим — солнечный свет рассеивается во всем спектральном диапазоне, но в синей части спектра почти на порядок сильнее, чем в красной. Еще сильнее рассеиваются ультрафиолетовые лучи, обусловливающие солнечный загар. Именно поэтому загар распределяется по телу достаточно равномерно, охватывая даже те участки кожи, на которые не попадают прямые солнечные лучи.



Добавлено через: 36 сек

Джон ТИНДАЛЬ
John Tyndall,  1820–93
Ирландский физик и инженер. Родился в Лайлин-Бридж, графство Карлоу (Leighlin Bridge, County Carlow). По окончании средней школы работал топографом-геодезистом в военных организациях и на строительстве железных дорог. Одновременно окончил механический институт в Престоне. Уволен с военно-геодезической службы за протесты против плохих условий труда. Преподавал в Куинвуд-колледже (Хэмпшир), одновременно продолжал самообразование. В 1848–51 гг. слушал лекции в Марбургском и Берлинском университетах. Вернувшись в Англию, стал преподавателем, а затем и профессором Королевского института (Royal Institution) в Лондоне. Основные труды ученого посвящены магнетизму, акустике, поглощению теплового излучения газами и парами, рассеянию света в мутных средах. Изучал строение и движение ледников в Альпах.

Тиндаль был крайне увлечен идеей популяризации науки. Регулярно читал публичные лекции, часто в форме бесплатных лекций для всех желающих: для рабочих на заводских дворах в обеденные перерывы, рождественские лекции для детей в Королевском институте. Слава Тиндаля как популяризатора достигла и другого берега Атлантики — весь тираж американского издания его книги «Фрагменты науки» (Fragments of Science, 1871) был раскуплен за один день. Погиб в 1893 году нелепой смертью: готовя обед, жена ученого (пережившая его на 47 лет) по ошибке использовала вместо поваренной соли один из хранившихся на кухне химических реактивов

Re: всё о науке
« Ответ #1 : 21 Августа 2006, 17:08:33 »
еффект Холла


При движении электрического заряда в магнитном поле на него воздействует отклоняющая сила. Именно на этом принципе основана работа таких экспериментальных установок, как синхрофазотрон, широко использующихся в исследованиях в области физики элементарных частиц: в них заряженные частицы оказываются пойманными в тороидальную (в форме бублика) магнитную ловушку и летают по кругу внутри неё. В малых масштабах этот эффект используется в устройстве микроволновой печи — в ней электроны, циркулируя в магнитном поле, производят сверхвысокочастотное излучение, разогревающее пищу.

Представьте, что на столе перед вами лежит кусок проводящей проволоки, а магнитное поле направлено перпендикулярно плоскости крышки стола. Если по проволоке пропустить ток, магнитное поле заставит заряды внутри провода отклоняться в одну сторону (вправо или влево от направления тока, в зависимости от ориентации магнитного поля и полярности зарядов). Смещаясь от направления прямолинейного движения внутри проводника, заряды будут скапливаться в приграничной зоне, пока силы взаимного электростатического отталкивания между ними, возникающие в силу закона Кулона, не уравновесят отклоняющую силу воздействия магнитного поля на ток. После этого ток снова потечёт прямолинейно, однако на проводнике возникнет разность электрических потенциалов в плоскости, перпендикулярной как направлению тока, так и направлению силовых линий магнитного поля, вызванная перераспределением электрических зарядов в плоскости сечения проводника, а величина этой разности потенциалов будет пропорциональна силе тока и напряженности магнитного поля.

Первым поперечное электрическое напряжение, возникающее под воздействием внешнего магнитного поля, по вышеописанной схеме измерил в 1879 году Эдвин Холл. Он осознал, что направление вектора напряжения будет зависеть от того, какие заряды — отрицательные или положительные — являются носителем тока. И, в результате проведённых опытов, Холл первым в мире наглядно продемонстрировал, что электрический ток в металлах создаётся направленным движением отрицательно заряженных электронов. А до этого опыта учёные сомневались и относительно полярности зарядов-носителей тока, и относительно того, воздействует ли магнитное поле на заряженные частицы внутри проводника или на саму неподвижную структуру проводника.

Прошло более столетия после экспериментов Холла, и германский физик Клаус фон Клитцинг (Klaus von Klitzing, р. 1943) открыл квантово-механический аналог эффекта Холла, за что и был в 1985 году удостоен Нобелевской премии по физике.



Добавлено спустя: 1 час. 2 мин.
Эдвин Герберт ХОЛЛ
Edwin Herbert Hall,  1855–1938
Американский физик. Родился в г. Грейт-Фолз (ныне Горем), штат Мэн. Поступил в первый набор на физический факультет только что открытого Университета Джонса Хопкинса в Балтиморе — первого американского научно-исследовательского и учебно-образовательного учреждения, смоделированного по образцу немецких научно-исследовательских заведений. Эффект, названный впоследствии его именем, Холл открыл при подготовке докторской диссертации по электричеству и магнетизму. Защитив её, учёный перешёл в Гарвардский университет, где затем прославился инновациями в области преподавания физики в высшей и особенно средней школе.

фото нету у меня

Добавлено спустя: 1 час. 1 мин.
Говорят, что прозрение пришло к Альберту Эйнштейну в одно мгновение. Ученый якобы ехал на трамвае по Берну (Швейцария), взглянул на уличные часы и внезапно осознал, что если бы трамвай сейчас разогнался до скорости света, то в его восприятии эти часы остановились бы — и времени бы вокруг не стало. Это и привело его к формулировке одного из центральных постулатов относительности — что различные наблюдатели по-разному воспринимают действительность, включая столь фундаментальные величины, как расстояние и время.

Говоря научным языком, в тот день Эйнштейн осознал, что описание любого физического события или явления зависит от системы отсчета, в которой находится наблюдатель (см. Эффект Кориолиса). Если пассажирка трамвая, например, уронит очки, то для нее они упадут вертикально вниз, а для пешехода, стоящего на улице, очки будут падать по параболе, поскольку трамвай движется, в то время как очки падают. У каждого своя система отсчета.

Но хотя описания событий при переходе из одной системы отсчета в другую меняются, есть и универсальные вещи, остающиеся неизменными. Если вместо описания падения очков задаться вопросом о законе природы, вызывающем их падение, то ответ на него будет один и тот же и для наблюдателя в неподвижной системе координат, и для наблюдателя в движущейся системе координат. Закон распределенного движения в равной мере действует и на улице, и в трамвае. Иными словами, в то время как описание событий зависит от наблюдателя, законы природы от него не зависят, то есть, как принято говорить на научном языке, являются инвариантными. В этом и заключается принцип относительности.

Как любую гипотезу, принцип относительности нужно было проверить путем соотнесения его с реальными природными явлениями. Из принципа относительности Эйнштейн вывел две отдельные (хотя и родственные) теории. Специальная, или частная, теория относительности исходит из положения, что законы природы одни и те же для всех систем отсчета, движущихся с постоянной скоростью. Общая теория относительности распространяет этот принцип на любые системы отсчета, включая те, что движутся с ускорением. Специальная теория относительности была опубликована в 1905 году, а более сложная с точки зрения математического аппарата общая теория относительности была завершена Эйнштейном к 1916 году.

Специальная теория относительности
Большинство парадоксальных и противоречащих интуитивным представлениям о мире эффектов, возникающих при движении со скоростью, близкой к скорости света, предсказывается именно специальной теорией относительности. Самый известный из них — эффект замедления хода часов, или эффект замедления времени. Часы, движущиеся относительно наблюдателя, идут для него медленнее, чем точно такие же часы у него в руках.

Время в системе координат, движущейся со скоростями, близкими к скорости света, относительно наблюдателя растягивается, а пространственная протяженность (длина) объектов вдоль оси направления движения — напротив, сжимается. Этот эффект, известный как сокращение Лоренца—Фицджеральда, был описан в 1889 году ирландским физиком Джорджем Фицджеральдом (George Fitzgerald, 1851–1901) и дополнен в 1892 году нидерландцем Хендриком Лоренцем (Hendrick Lorentz, 1853–1928). Сокращение Лоренца—Фицджеральда объясняет, почему опыт Майкельсона—Морли по определению скорости движения Земли в космическом пространстве посредством замеров «эфирного ветра» дал отрицательный результат. Позже Эйнштейн включил эти уравнения в специальную теорию относительности и дополнил их аналогичной формулой преобразования для массы, согласно которой масса тела также увеличивается по мере приближения скорости тела к скорости света. Так, при скорости 260 000 км/с (87% от скорости света) масса объекта с точки зрения наблюдателя, находящегося в покоящейся системе отсчета, удвоится.

Со времени Эйнштейна все эти предсказания, сколь бы противоречащими здравому смыслу они ни казались, находят полное и прямое экспериментальное подтверждение. В одном из самых показательных опытов ученые Мичиганского университета поместили сверхточные атомные часы на борт авиалайнера, совершавшего регулярные трансатлантические рейсы, и после каждого его возвращения в аэропорт приписки сверяли их показания с контрольными часами. Выяснилось, что часы на самолете постепенно отставали от контрольных все больше и больше (если так можно выразиться, когда речь идет о долях секунды). Последние полвека ученые исследуют элементарные частицы на огромных аппаратных комплексах, которые называются ускорителями. В них пучки заряженных субатомных частиц (таких как протоны и электроны) разгоняются до скоростей, близких к скорости света, затем ими обстреливаются различные ядерные мишени. В таких опытах на ускорителях приходится учитывать увеличение массы разгоняемых частиц — иначе результаты эксперимента попросту не будут поддаваться разумной интерпретации. И в этом смысле специальная теория относительности давно перешла из разряда гипотетических теорий в область инструментов прикладной инженерии, где используется наравне с законами механики Ньютона.

Возвращаясь к законам Ньютона, я хотел бы особо отметить, что специальная теория относительности, хотя она внешне и противоречит законам классической ньютоновской механики, на самом деле практически в точности воспроизводит все обычные уравнения законов Ньютона, если ее применить для описания тел, движущихся со скоростью значительно меньше, чем скорость света. То есть, специальная теория относительности не отменяет ньютоновской физики, а расширяет и дополняет ее (подробнее эта мысль рассматривается во Введении).

Принцип относительности помогает также понять, почему именно скорость света, а не какая-нибудь другая, играет столь важную роль в этой модели строения мира — этот вопрос задают многие из тех, кто впервые столкнулся с теорией относительности. Скорость света выделяется и играет особую роль универсальной константы, потому что она определена естественнонаучным законом (см. Уравнения Максвелла). В силу принципа относительности скорость света в вакууме c одинакова в любой системе отсчета. Это, казалось бы, противоречит здравому смыслу, поскольку получается, что свет от движущегося источника (с какой бы скоростью он ни двигался) и от неподвижного доходит до наблюдателя одновременно. Однако это так.

Благодаря своей особой роли в законах природы скорость света занимает центральное место и в общей теории относительности.

Общая теория относительности
Общая теория относительности применяется уже ко всем системам отсчета (а не только к движущимися с постоянной скоростью друг относительно друга) и выглядит математически гораздо сложнее, чем специальная (чем и объясняется разрыв в одиннадцать лет между их публикацией). Она включает в себя как частный случай специальную теорию относительности (и, следовательно, законы Ньютона). При этом общая теория относительности идёт значительно дальше всех своих предшественниц. В частности, она дает новую интерпретацию гравитации.

Общая теория относительности делает мир четырехмерным: к трем пространственным измерениям добавляется время. Все четыре измерения неразрывны, поэтому речь идет уже не о пространственном расстоянии между двумя объектами, как это имеет место в трехмерном мире, а о пространственно-временных интервалах между событиями, которые объединяют их удаленность друг от друга — как по времени, так и в пространстве. То есть пространство и время рассматриваются как четырехмерный пространственно-временной континуум или, попросту, пространство-время. В этом континууме наблюдатели, движущиеся друг относительно друга, могут расходиться даже во мнении о том, произошли ли два события одновременно — или одно предшествовало другому. К счастью для нашего бедного разума, до нарушения причинно-следственных связей дело не доходит — то есть существования систем координат, в которых два события происходят не одновременно и в разной последовательности, даже общая теория относительности не допускает.

Закон всемирного тяготения Ньютона говорит нам, что между любыми двумя телами во Вселенной существует сила взаимного притяжения. С этой точки зрения Земля вращается вокруг Солнца, поскольку между ними действуют силы взаимного притяжения. Общая теория относительности, однако, заставляет нас взглянуть на это явление иначе. Согласно этой теории, гравитация — это следствие деформации («искривления») упругой ткани пространства-времени под воздействием массы (при этом чем тяжелее тело, например Солнце, тем сильнее пространство-время «прогибается» под ним и тем, соответственно, сильнее его гравитационное поле). Представьте себе туго натянутое полотно (своего рода батут), на которое помещен массивный шар. Полотно деформируется под тяжестью шара, и вокруг него образуется впадина в форме воронки. Согласно общей теории относительности, Земля обращается вокруг Солнца подобно маленькому шарику, пущенному кататься вокруг конуса воронки, образованной в результате «продавливания» пространства-времени тяжелым шаром — Солнцем. А то, что нам кажется силой тяжести, на самом деле является, по сути чисто внешнем проявлением искривления пространства-времени, а вовсе не силой в ньютоновском понимании. На сегодняшний день лучшего объяснения природы гравитации, чем дает нам общая теория относительности, не найдено.

Проверить общую теорию относительности трудно, поскольку в обычных лабораторных условиях ее результаты практически полностью совпадают с тем, что предсказывает закон всемирного тяготения Ньютона. Тем не менее несколько важных экспериментов были произведены, и их результаты позволяют считать теорию подтвержденной. Кроме того, общая теория относительности помогает объяснить явления, которые мы наблюдаем в космосе, — например, незначительные отклонения Меркурия от стационарной орбиты, необъяснимые с точки зрения классической механики Ньютона, или искривление электромагнитного излучения далеких звезд при его прохождении в непосредственной близости от Солнца.

На самом деле результаты, которые предсказывает общая теория относительности, заметно отличаются от результатов, предсказанных законами Ньютона, только при наличии сверхсильных гравитационных полей. Это значит, что для полноценной проверки общей теории относительности нужны либо сверхточные измерения очень массивных объектов, либо черные дыры, к которым никакие наши привычные интуитивные представления неприменимы. Так что разработка новых экспериментальных методов проверки теории относительности остается одной из важнейших задач экспериментальной физики.



Добавлено спустя: 44 мин.
Свойственное человеческой натуре упрямство не дает людям смириться с непреложностью законов природы. Самым ярким свидетельством этому служит настойчивая вера в то, что можно построить вечный двигатель — двигатель, который будет работать бесконечно долгое время без какой-либо внешней помощи. Как ученый, занимающийся еще и общественной деятельностью, я каждый год получаю хотя бы одно письмо, уведомляющее о проекте создания такого двигателя. Иногда авторы писем предлагают мне проценты от доходов, которые можно будет получить от такого двигателя, если я обращу на него внимание соответствующих организаций.

Существует два типа вечных двигателей — те, что нарушают и первое, и второе начало термодинамики, и те, что нарушают только второе из них. Вот пример двигателя первого типа: металлический шар, расположенный между северным и южным полюсами магнита. Тяжелый металлический экран заслоняет шар от северного полюса, поэтому, если шар отпустить, он начнет двигаться к южному полюсу. При приближении его к южному полюсу металлический экран у северного полюса поднимается, в то время как другой экран между шаром и южным полюсом опускается. Шар меняет направление движения, начиная катиться обратно к северному полюсу. Точно в нужный момент экран у северного полюса падает, и шар начинает катиться обратно к южному полюсу. Как предположительно должен работать двигатель? Энергия извлекается из катящегося шара, и, если экраны расположены на концах такого балансира, на их поднимание и опускание энергия не тратится.

Недостаток этого двигателя в том, что если металлический экран движется в магнитном поле, то, согласно закону электромагнитной индукции Фарадея, в металле обязательно возникнет электрический ток. Это означает, что будет происходить утечка энергии из системы вследствие работы закона Ома. Легко видеть, что, если магниты достаточно сильны, чтобы заставить шар двигаться, они будут также достаточно сильны, чтобы вызывать большие потери сопротивления в металлических экранах при их опускании, поэтому двигатель, который на бумаге выглядит столь привлекательно, просто не будет работать.

Некоторые изобретатели предлагали более сложные вечные двигатели, и требовалось более тонкое понимание вопроса, чтобы увидеть изъяны в их конструкции. Но изъяны находятся всегда, вот почему ни одного такого двигателя мы не видели в работе. В середине ХХ века этот факт был признан Патентным бюро США. Измученное потоком патентных заявок на вечные двигатели, бюро объявило, что в будущем любая такая заявка должна сопровождаться работающей моделью. С тех пор заявители его больше не беспокоили.



Добавлено спустя: 1 мин.
В начале XIX века в развитии химии был достигнут большой прогресс. Переосмысленная атомная теория строения вещества помогла понять сложный состав большинства найденных в природе веществ. Оставалась одна проблема — казалось, что многие молекулы существуют только в биологических системах. Поэтому химики заговорили о так называемой «жизненной силе», присущей только живым организмам. Считалось, что благодаря этой силе возникают молекулы, которые не могут быть воспроизведены в неживой природе.

Типичным примером таких органических молекул может служить вещество под названием мочевина. Молекулы мочевины имеют химическую формулу CO(NH2)2. С их помощью у большинства животных происходит выделение неусвоенного азота, поступившего с пищей. К примеру, человеческая моча содержит 2–5% мочевины.

В 1828 году Фридрих Вёлер совершил важный прорыв, синтезировав мочевину в лаборатории из стандартных химикатов. Его открытие было убедительным доказательством того, что для создания органических молекул не требуется никакой жизненной силы и что они образуются по тем же законам, что и любые другие молекулы. После работ Вёлера понятие жизненной силы полностью исчезло со сцены.

С юмором (наличие которого обычно не предполагают в немецких ученых-академистах) Вёлер в письме другу рассказал о своем открытии следующими словами: «Я больше не могу, образно говоря, сдерживать свою химическую мочу, и должен сообщить, что я произвожу мочевину без помощи почки, человеческой или собачьей».

В действительности же идеи витализма (представления о жизненной силе) не так-то легко похоронить. Чтобы покончить с ними раз и навсегда, недостаточно только привести очевидные факты. Так, многие идеи «нового времени» являются почти не замаскированным витализмом. В 1930-е годы нечто похожее на витализм, но в более респектабельном виде, обозначилось в дискуссиях по поводу открытия очень сложных биологических молекул (их примером служит ДНК). Утверждалось, что законы, управляющие поведением атомов в сложных и простых молекулах, могут различаться. Поскольку в то время ученые еще мало работали со сложными молекулами, эту гипотезу нельзя было опровергнуть. Позже выяснилось, что это утверждение неверно: атомы водорода в молекуле ДНК подчиняются тем же законам, что и атомы водорода в любых других молекулах. По крайней мере в этом случае оказалось, что природа устроена просто.



Добавлено через: 4 мин. 23 сек

Вопрос о происхождении Вселенной со всеми ее известными и пока неведомыми свойствами испокон веков волнует человека. Но только в ХХ веке, после, обнаружения космологического расширения, вопрос об эволюции Вселенной стал понемногу проясняться. Последние научные данные позволили сделать вывод, что наша Вселенная родилась 15 миллиардов лет назад в результате Большого взрыва. Но что именно взорвалось в тот момент и что, собственно, существовало до Большого взрыва по-прежнему оставалось загадкой. Созданная в конце ХХ века инфляционная теория появления нашего мира позволила существенно продвинуться в разрешении этих вопросов, и общая картина первых мгновений Bсeленной сегодня уже неплохо прорисована, хотя многие проблемы еще ждут своего часа. 
    До начала прошлого века было всего два взгляда на происхождение нашей Вселенной. Ученые полагали, что она вечна и неизменна, а богословы говорили что Мир сотворен и у него будет конец. Двадцатый век, разрушив   
Эта модель лишь иллюстрирует процесс всеобщего расширения нашего трехмерного пространства. Две любые точки раздувающейся сферы убегают друг от друга, причем чем более они удалены, тем выше скорость разлетания 
 
Карта температуры реликтового излучения, полученная спутниками "COBE" (США) и "Реликт-1" (Россия). Вариации температуры от точки к точке не превышают одной десятитысячной градуса Кельвина 
 
очень многое из того, что было создано в предыдущие тысячелетия, сумел дать свои ответы на большинство вопросов, занимавших умы ученых прошлого. И быть может, одним из величайших достижений ушедшего века является прояснение вопроса о том, как возникла Вселенная, в которой мы живем, и какие существуют гипотезы по поводу ее будущего.
    Простой астрономический факт - расширение нашей Вселенной - привело к полному пересмотру всех космогонических концепций и разработке новой физики - физики возникающих и исчезающих миров. Всего 70 лет назад Эдвин Хаббл обнаружил, что свет от более далеких галактик «краснee» света от более близких. Причем скорость разбегания оказалась пропорциональна расстоянию от Земли (закон расширения Хаббла). Обнаружить это удалось благодаря эффекту Доплера (зависимости длины волны света от скорости источника света). Поскольку более далекие галактики кажутся более «красными», то предположили, что и удаляются они с большей скоростью. Кстати, разбегаются не звезды и даже не отдельные галактики, а скопления галактик. Ближайшие от нас звезды и галактики связаны друг с другом гравитационными силами и образуют устойчивые структуры Причем в каком направлении ни посмотри, скопления галактик разбегаются от Земли с одинаковой скоростью, и может показаться, что наша Галактика является центром Вселенной, однако это не так. Где бы ни находился наблюдатель, он будет везде видеть все ту же картину - все галактики разбегаются от него.
    Но такой разлет вещества обязан иметь начало. Значит, все галактики должны были родиться в одной точке. Расчеты показывают, что произошло это примерно 15 млрд. лет назад. В момент такого взрыва температура была очень большой, и должно было появиться очень много квантов света. Конечно, со временем все остывает, а кванты разлетаются по возникающему пространству, но отзвуки Большого взрыва должны были сохраниться до наших дней.
    Первое подтверждение факта взрыва пришло в 1964 году, когда американские радиоастрономы Р. Вильсон и А. Пензиас обнаружили реликтовое электромагнитное излучение с температурой около 3° по шкале Кельвина (-270°С). Именно это открытие, неожиданное для ученых, убедило их в том, что Большой взрыв действительно имел место и поначалу Вселенная была очень горячей.
    Теория Большого взрыва позволила объяснить множество проблем, стоявших перед космологией. Но, к сожалению, а может, и к счастью, она же поставила и ряд новых вопросов. В частности: Что было до Большого взрыва? Почему наше пространство имеет нулевую кривизну и верна геометрия Евклида, которую изучают в школе? Если теория Большого взрыва справедлива, то отчего нынешние размеры нашей Вселенной гораздо больше предсказываемого теорией 1 сантиметра? Почему Вселенная на удивление однородна, в то время как при любом взрыве вещество разлетается в разные стороны крайне неравномерно? Что привело к начальному нагреву Вселенной до невообразимой температуры более 1013 К?
    Все это указывало на то, что теория Большого взрыва неполна. Долгое время казалось, что продвинуться далее уже невозможно. Только четверть века назад благодаря работам российских физиков Э. Глинера и А. Старобинского, а также американца А. Гуса было описано новое явление - сверхбыстрое инфляционное расширение Вселенной. Описание этого явления основывается на хорошо изученных разделах теоретической физики - общей теории относительности Эйнштейна и квантовой теории поля. Сегодня считается общепринятым, что именно такой период, получивший название «инфляция», предшествовал Большому взрыву.
    Размеры Вселенной астрономы оценивают как 1028 см, в то время как начался инфляционный процесс с флуктуации размером 10-33 см. Величина протона, то есть атомного ядра атома водорода, - 10-13 см. Таким образом, получается, что Вселенная вначале была во столько же раз меньше протона, во сколько протон меньше Луны. Кстати, Луна по отношению к современной Вселенной имеет примерно тот же размер, что и начальная флуктуация в сравнении с ядром атома водорода.

Суть инфляции

    При попытке дать представление о сущности начального периода жизни Вселенной приходится оперировать такими сверхмалыми и сверхбольшими числами, что наше воображение с трудом их воспринимает. Попробуем воспользоваться некоей аналогией, чтобы понять суть процесса инфляции. Представим себе покрытый снегом горный склон, в который вкраплены разнородные мелкие предметы - камешки, ветки и кусочки льда. Кто-то, находящийся на вершине этого склона, сделал небольшой снежок и пустил его катиться с горы. Двигаясь вниз, снежок увеличивается в размерах, так как на него налипают новые слои снега со всеми включениями. И чем больше размер снежка, тем быстрее он будет увеличиваться. Очень скоро из маленького снежка он превратится в огромный ком. Если склон заканчивается пропастью, то он полетит в нее со все более увеличивающейся скоростью. Достигнув дна, ком ударится о дно пропасти и его составные части разлетятся во все стороны (кстати, часть кинетической энергии кома при этом пойдет на нагрев окружающей среды и разлетающегося снега).
    Теперь опишем основные положения теории, используя приведенную аналогию. Прежде всего физикам пришлось ввести гипотетическое поле, которое было названо «инфлатонным» (от слова «инфляция»). Это поле заполняло собой все пространство (в нашем случае - снег на склоне). Благодаря случайным колебаниям оно принимало разные значения в произвольных пространственных областях и в различные моменты времени. Ничего существенного не происходило, пока случайно не образовалась однородная конфигурация этого поля размером более 10-33 см. Что же касается наблюдаемой нами Вселенной, то она в первые мгновения своей жизни, по-видимому, имела размер 10-27 см. Предполагается, что на таких масштабах уже справедливы основные законы физики, известные нам сегодня, поэтому можно предсказать дальнейшее поведение системы. Оказывается, что сразу после этого пространственная область, занятая флуктуацией (от лат. fluctuatio - «колебание», случайные отклонения наблюдаемых физических величин от их средних значений), начинает очень быстро увеличиваться в размерах, а инфлатонное поле стремится занять положение, в котором его энергия минимальна (снежный ком покатился). Такое расширение   
Остатки сверхновой NGC 6995 - это горячий светящийся газ, образовавшийся после взрыва звезды 20-30 тысяч лет назад. Подобные взрывы 10-14 млрд. лет назад активно обогащали пространство тяжелыми элементами из которых впоследствии образовывались планеты и звезды следующего поколения. 
Краткая история Вселенной

Это изображение описывает развитие Вселенной со времени Большого взрыва, до "наших" дней. От появления элементарных частиц и атомов, до современных галактик и планет.
Подробные пояснения к изображению см. внизу. 
 
 
продолжается всего 10-35 секунды, но этого времени оказывается достаточно для того, чтобы диаметр Вселенной возрос как минимум в 1027 раз и к окончанию инфляционного периода наша Вселенная приобрела размер примерно 1 см. Инфляция заканчивается, когда инфлатонное поле достигает минимума энергии - дальше падать некуда. При этом накопившаяся кинетическая энергия переходит в энергию рождающихся и разлетающихся частиц, иначе говоря, происходит нагрев Вселенной. Как раз этот момент и называется сегодня Большим взрывом.
    Гора, о которой говорилось выше, может иметь очень сложный рельеф - несколько разных минимумов, долины внизу и всякие холмы и кочки. Снежные комья (будущие вселенные) непрерывно рождаются наверху горы засчет флуктуаций поля. Каждый ком может скатиться в любой из минимумов, породив при этом свою вселенную со специфическими параметрами Причем вселенные могут существенно отличаться друг от друга. Свойства нашей Вселенной удивительнейшим образом приспособлены к тому, чтобы: ней возникла разумная жизнь. Другим вселенным, возможно, повезло меньше.
    Еще раз хотелось бы подчеркнуть, что описанный процесс рождения Вселенной «практически из ничего» опирается на строго научные расчеты. Тем не менее у всякого человека, впервые знакомящегося с инфляционным механизмом, описанным выше, возникает немало вопросов.
    Сегодня наша Вселенная состоит из большого числа звезд, не говоря уж о скрытой массе. И может показаться, что полная энергия и масса Вселенной огромны. И совершенно непонятно, как это все могло поместиться в первоначальном объеме 10-99 см3. Однако во Вселенной существует не только материя, но и гравитационное поле. Известно, что энергия последнего отрицательна и, как оказалось, в нашей Вселенной энергия гравитации в точности компенсирует энергию, заключенную в частицах, планетах, звездах и прочих массивных объектах. Таким образом, закон сохранения энергии прекрасно выполняется, и суммарная энергия и масса нашей Вселенной практически равны нулю. И менно это обстоятельство отчасти объясняет, почему зарождающаяся Вселенная тут же после появления не превратилась в огромную черную дыру. Ее суммарная масса была совершенно микроскопична, и вначале просто нечему было коллапсировать. И только на более поздних стадиях развития появились локальные сгустки материи, способные создавать вблизи себя такие гравитационные поля, из которых не может вырваться даже свет. Соответственно, и частиц, из которых «сделаны» звезды, на начальной стадии развития просто не существовало. Элементарные частицы начали рождаться в тот период развития Вселенной, когда инфлатонное поле достигло минимума потенциальной энергии и начался Большой взрыв.
    Область, занятая инфлатонным полем, разрасталась со скоростью, существенно большей скорости света, однако это нисколько не противоречит теории относительности Эйнштейна. Быстрее света не могут двигаться лишь материальные тела, а в данном случае двигалась воображаемая, нематериальная граница той области, где рождалась Вселенная (примером сверхсветового движения является перемещение светового пятна по поверхности Луны при быстром вращении освещающего ее лазера). Причем окружающая среда совсем не сопротивлялась расширению области пространства, охваченного все более быстро разрастающимся инфлатонным полем, поскольку ее как бы не существует для возникающего Мира. Общая теория относительности утверждает, что физическая картина, которую видит наблюдатель, зависит от того, где он находится и как движется. Так вот, описанная выше картина справедлива для «наблюдателя», находящегося внутри этой области. Причем этот наблюдатель никогда не узнает, что происходит вне той области пространства, где он находится. Другой «наблюдатель», смотрящий на эту область снаружи, никакого расширения вовсе не обнаружит. В лучшем случае он увидит лишь небольшую искорку, которая по его часам исчезнет почти мгновенно. Даже самое изощренное воображение отказывается воспринимать такую картину. И все-таки она, по-видимому, верна. По крайней мере, так считают современные ученые, черпая уверенность в уже открытых законах Природы, правильность которых многократно проверена.
    Надо сказать, что это инфлатонное поле и сейчас продолжает существовать и флуктуировать. Но только мы, внутренние наблюдатели, не в состоянии этого увидеть - ведь для нас маленькая область превратилась в колоссальную Вселенную, границ которой не может достигнуть даже свет.
    Итак, сразу после окончания инфляции гипотетический внутренний наблюдатель увидел бы Вселенную, заполненную энергией в виде материальных частиц и фотонов. Если всю энергию, которую мог бы измерить внутренний наблюдатель, перевести в массу частиц, то мы получим примерно 1080 кг. Расстояния между частицами быстро увеличиваются из-за всеобщего расширения. Гравитационные силы притяжения между частицами уменьшают их скорость, поэтому расширение Вселенной после завершения инфляционного периода постепенно замедляется.

Краткая история развития Вселенной
Время Температура Состояние Вселенной
10-45 - 10-37 сек Более 1026K Инфляционное расширение
10-6 сек Более 1013K Появление кварков и электронов
10-5 cек 1012K Образование протонов и нейтронов
10-4 сек - 3 мин  1011 - 109 K Возникновение ядер дейтерия, гелия и лития
400 тыс. лет 4000 К Образование атомов
15 млн. лет 300 K Продолжение расширения газового облака
1 млрд. лет 20 K Зарождение первых звезд и галактик
3 млрд. лет 10 K Образование тяжелых ядер при взрывах звезд
10 - 15 млрд. лет 3 K Появление планет и разумной жизни
1014 лет 10-2 K Прекращение процесса рождения звезд
1037 лет 10-18 K Истощение энергии всех звезд
1040 лет -20 K Испарение черных дыр и рождение элементарных частиц
10100 лет 10-60 - 10-40 K Завершение испарения всех черных дыр

    Взрывы сверхновых звезд настолько ярки, что затмевают своим светом миллиарды других, спокойно горящих в галактике, звезд. Именно благодаря таким взрывам возникает строительный материал, необходимый для формирования новых планет.
    Чем дальше находится тот или иной астрономический объект, тем о более раннем периоде жизни нашей Вселенной он может рассказать. В результате, наблюдая вспышки далеких сверхновых, физики не только заглядывают в глубь Вселенной, но и уточняют пути ее начального развития, когда она была еще совсем молодой 


--------------------------------------------------------------------------------


Открытие Реликтового излучения

    В 1964 году физики Арно Пензиас и Роберт Вилсон, сотрудники Веll Laboratories, занимавшиеся обслуживанием радиоантенны слежения за американским космическим спутником «Эхо» в Холмделе (Нью-Джерси), решили проверить некоторые свои научные гипотезы о радиоизлучении тех или иных объектов Вселенной. Антенна была самым чувствительным на тот момент детектором СВЧ-волн, а потому сначала ее надо было правильно настроить, чтобы исключить возможные помехи.
    Для тестирования была выбрана длина волны 7,35 см, на которой не излучал ни один из известных источников. Работа долго не клеилась, поскольку антенна постоянно фиксировала некий дополнительный посторонний шум, от которого никак нельзя было избавиться. Проверка всех компонентов и даже удаление из дорогостоящей аппаратуры неизвестно как попавшего тyда голубиного помета эффекта не принесли. Шум не зависел ни от направления антенны, что означало, что его источник находится за пределами Земли и ее атмосферы, ни от времени суток, то есть не мог быть связан с Солнцем или планетами. Если бы причина крылась в нашей Галактике, то интенсивность излучения изменялась бы из-за вращения 3емли вокруг своей оси и вокруг Солнца, изменяющего направление антенны на те или иные участки космоса. Шум же был везде и всегда.
    Интенсивность этого радиосигнала оказалась равной интенсивности излучения абсолютно черного тела с температурой около 3 К (К - Кельвин, единица температуры: 0 К - «абсолютный нуль» - температура тела, состоящего из неподвижных атомов, а 273 К соответствует 0°С). Потратив около года на устранение неустранимой помехи, Пензиас и Вилсон поняли, что нашли то, чего не теряли, - реликтовое излучение ранней Вселенной, существование которого было предсказано Джорджем Гамовым еще в 1948 году.
    По иронии судьбы, в то же самое время Роберт Дикке и Джим Пиблз из расположенного по соседству с Холмделом Принстонского университета вычислили, что такое излучение, если оно действительно существует, должно быть изотрапным (не зависеть от направления) и соответствовать температуре излучения абсолютно черного тела с темпертурой не более 10 К, о чем Пиблз и рассказал на своей лекции в начале 1965 года. Случайно узнавший об этом Пензиас по звонил в Принстон, когда там уже почти смонтировали аппаратуру для практического поиска сигнала. Включать ее уже не имело смысла.
    Теоретическое обоснование открытия взяли на себя принстонцы, но тем не менее Нобелевская премия 1978 года была присуждена Пензиасу и Вилсону именно за практическое обнаружение излучения.
    Что же такое реликтовое излучение? Согласно теории большого Взрыва Вселенная возникла приблизительно 14 млрд. лет назад в результате грандиозного взрыва, создавшего пространство и время, всю материю и энергию, которые нас окружают. Новорожденная Вселенная прошла стадию чрезвычайно быстрого расширения, названного инфляцией, которая радикально изменила пейзаж младенческого космоса. До возраста приблизительно 300 тыс. лет Вселенная была кипящим котлом из электронов, протонов, нейтрино и излучения, которые взаимодействовали между собой и составляли единую среду, равномерно заполняющую всю раннюю Вселенную. Общее расширение Вселенной постепенно охлаждало этy среду, и, когда темпеpaтypa упала до значения нескольких тысяч градусов, наступило время для формирования стабильных атомов. Так же в результате расширения первоначальное излучение стало куда менее интенсивным, но не пропало совсем. Именно его и обнаружили будущие нобелевские лауреаты.
    Реликтовое излучение равномерно заполняет всю Вселенную, и, если мы могли бы видеть микроволны, все небо пылало бы с поразительно одинаковой яркостью во всех направлениях. Эта однородность является одной из главных причин, по которой это излучение считают теплом, оставшимся от Большого Взрыва. Но как может локальный источник создать подобную однородность? Оказывается, этому способствует сам процесс расширения пространства. Чтобы наглядно понять, как это происходит, представьте себе такую большую и очевидную неоднородность, как гора Джомолунгма. Теперь начните мысленно растягивать эту гору в ширину, оставляя высоту неизменной. Если как следует постараться и растянуть ее в ширину, скажем, на миллион километров, то получится почти идеально плоская поверхность - перепад высот в 8 км (высота горы) будет практически незаметен на таком колоссальном масштабе. Именно это и происходит при расширении пространства после большого Взрыва - все неоднородности сглаживаются. Но возникшие после инфляции крошечные изменения в плотности материи в ранней Вселенной должны были оставить отпечаток на реликтовом излучении в форме температурных колебаний от точки к точке. 


Добавлено через: 1 мин. 45 сек

просвящяйтесь :)


 Наше место в этом мире




 
 
Вселенная и Солнечная система
 Большой взрыв Жизнь звезд Исследователи Солнце - Сотворение мира Будущее мира Эволюция галактик Разнообразие "Ненужное открытие" Темная материя
Наше место в этом мире


Мир, рожденный из "ничего"

Эти опасные античастицы

    Совпадение хорошо знакомого нам экономического термина "инфляция" (от лат. inflatio и анг. inflation - "вздутие", "резкое расширение") с названием процесса зарождения Вселенной не случайно. В первые мгновения мир расширялся, охватывая все большую область пространства. Похожим образом растет и денежная масса во время кризисов, увеличиваясь За считанные годы в сотни и тысячи раз. Схожесть этих процессов заключается не только в том, что масса денег увеличивается в разы за каждый последующий год, но и в том, что печатать денежные знаки гораздо легче, чем увеличивать объемы производства. Так же и процесс инфляционного расширения Вселенной сопровождался лишь подготовкой пространства к рождению вещества, и ничего материального в эти мгновения еще не возникало. Хотя на этом аналогия заканчивается, и после инфляционного расширения нашего мира начинается вполне позитивный процесс рождения материи за счет энергии гравитационного поля. 
    Сразу после рождения Вселенная продолжала расти и охлаждаться. При этом охлаждение происходило в том числе и благодаря банальному расширению пространства. Электромагнитное излучение характеризуется длиной волны, которую можно связать с температурой - чем больше средняя длина волны излучения, тем меньше температура. Но если пространство расширяется, то будут увеличиваться и расстояние между двумя «горбами» волны, и, следовательно, ее длина. Значит, в расширяющемся пространстве и температура излучения должна уменьшаться. Что и подтверждает крайне низкая температура современного реликтового излучения.
    По мере расширения меняется и состав материи, наполняющей наш мир. Кварки объединяются в протоны и нейтроны, и Вселенная оказывается заполненной уже знакомыми нам элементарными частицами - протонами, нейтронами, электронами, нейтрино и фотонами. Присутствуют также и античастицы. Свойства частиц и античастиц практически идентичны. Казалось бы, и количество их должно быть одинаковым сразу после инфляции. Но тогда все частицы и античастицы взаимно уничтожились бы и строительного материала для галактик и нас самих не осталось бы. И здесь нам опять повезло. Природа позаботилась о том, чтобы частиц было немного больше, чем античастиц. И менно благодаря этой небольшой разнице и существует наш мир. А реликтовое излучение - это как раз последствие аннигиляции (то есть взаимоуничтожения) частиц и античастиц. Конечно, на начальном этапе энергия излучения была очень велика, но благодаря расширению пространства и как следствие -   
Участок неба с наиболее древними звездами нашей Галактики - Млечного Пути. Эти слабосветящиеся белые карлики имеют возраст 10-12 млрд. лет и однозначно указывают на то, что наша Галактика родилась примерно через миллиард лет после Большого взрыва. Таким образом, космический телескоп "Хаббл" позволил независимым от космогонического расширения способом определить возраст нашей Вселенной. 
 
охлаждению излучения эта энергия быстро убывала. Сейчас энергия реликтового излучения примерно в десять тысяч раз меньше энергии, заключенной в массивных элементарных частицах.
    Постепенно температура Вселенной упала до 1010 К. К этому моменту возраст Вселенной составлял примерно 1 минуту. Только теперь протоны и нейтроны смогли объединяться в ядра дейтерия, трития и гелия. Это происходило благодаря ядерным реакциям, которые люди уже хорошо изучили, взрывая термоядерные бомбы и эксплуатируя атомные реакторы на Земле. Поэтому можно уверенно предсказывать, сколько и каких элементов может появиться в таком ядерном котле. Оказалось, что наблюдаемое сейчас обилие легких элементов хорошо согласуется с расчетами. Это означает, что известные нам физические законы одинаковы во всей наблюдаемой части Вселенной и были таковыми уже в первые секунды после появления нашего мира. Причем около 98% существующего в природе гелия образовалось именно в первые секунды после Большого взрыва.
    Сразу после рождения Вселенная проходила инфляционный период развития - все расстояния стремительно увеличивались (c точки зрения внутреннего наблюдателя). Однако плотность энергии в разных точках пространства не может быть в точности одинаковой - какие-то неоднородности всегда присутствуют. Предположим, что в какой-то области энергия немного больше, чем в соседних. Но раз все размеры быстро растут, то и размер этой области тоже должен расти. После окончания инфляционного периода эта разросшаяся область будет иметь чуть больше частиц, чем окружающее ее пространство, да и ее температура будет немного выше.
    Поняв неизбежность возникновения таких областей, сторонники инфляционной теории обратились к экспериментаторам: «необходимо обнаружить флуктуации температуры...» - констатировали они. И в 1992 году это пожелание было выполнено. Практически одновременно российский спутник «Реликт-1» и американский «СОВЕ» обнаружили требуемые флуктyации температуры реликтового излучения. Как уже говорилось, современная Вселенная имеет температуру 2,7 К, а найденные учеными отклонения температуры от среднего составляли примерно 0,00003 К. Неудивительно, что такие отклонения трудно было обнаружить раньше. Так инфляционная теория получила еще одно подтверждение.
    С открытием колебаний температyры появилась еще одна захватывающая возможность - объяснить принцип формирования галактики. Ведь чтобы гравитационные силы сжимали материю, необходим исходный зародыш - область с повышенной плотностью. Если материя распределена в пространстве равномерно, то гравитация, подобно Буриданову ослу, не знает, в каком направлении ей действовать. Но как раз области с избытком энергии и порождает инфляция. Теперь гравитационные силы знают, на что воздействовать, а именно, на более плотные области, созданные во время инфляционного периода. Под действием гравитации эти изначально чуть-чуть более плотные области будут сжиматься и именно из них в будущем образуются звезды и галактики.
    Современный нам момент эволюции Вселенной крайне удачно приспособлен для жизни, и длиться он будет еще много миллиардов лет. Звезды будут рождаться и умирать, галактики вращаться и сталкиваться, а скопления галактик - улетать все дальше друг от друга. Поэтому времени для самосовершенствования у человечества предостаточно. Правда, само понятие «сейчас» для такой огромной Вселенной, как наша, плохо определено. Так, например, наблюдаемая астрономами жизнь квазаров, удаленных от Земли на 10-14 млрд. световых лет, отстоит от нашего «сейчас» как раз на те самые 10-14 млрд. лет. И чем дальше в глубь Вселенной мы заглядываем с помощью различных телескопов, тем более ранний период ее развития мы наблюдаем.
    Сегодня ученые в состоянии объяснить большинство свойств нашей Вселенной, начиная с момента в 10-42 секунды и до настоящего времени и даже далее. Они могут также проследить образование галактик и довольно уверенно предсказать будущее Вселенной. Тем не менее ряд «мелких» непонятностей еще остается. Это прежде всего - сущность скрытой массы (темной материи) и темной энергии. Кроме того, существует много моделей, объясняющих, почему наша Вселенная содержит гораздо больше частиц, чем античастиц, и хотелось бы определиться в конце концов с выбором одной правильной модели.
    Как учит нас история науки, обычно именно «мелкие недоделки» и открывают дальнейшие пути развития, так что будущим поколениям ученых наверняка будет чем заняться. Кроме того, более глубокие вопросы тоже уже стоят на повестке дня физиков и математиков. Почему наше пространство трехмерно? Почему все константы в природе словно "подогнаны" так, чтобы возникла разумная жиэнь? И что же такое гравитация? Ученые уже пытаются ответить и на эти вопросы.
    Ну и конечно, оставим место для неожиданностей. Не надо забывать, что такие оснавополагающие открытия, как расширение Вселенной, наличие реликтовых фотонов и энергия вакуума, были сделаны, можмо сказать, случайно и не ожидались ученым сообществом.

Энергия вакуума - происхождение и последствия

    Что же ждет нашу Вселенную в дальнейшем? Еще несколько лет назад у теоретиков в этой связи имелись всего две возможности. Если плотность энергии во Вселенной мала, то она будет вечно расширяться и постепенно остывать. Если же плотность энергии больше некоторого критического значения, то стадия расширения сменится стадией сжатия. Вселенная будет сжиматься в размерах и нагреваться. Значит, одним из ключевых параметров, определяющим развитие Вселенной, является средняя плотность энергии. Так вот, астрофизические наблюдения, проводимые до 1998 года, говорили о том, что плотность энергии составляет примерно 30% от критического значения. А инфляционные модели предсказывали, что плотность энергии должна быть равна критической. Апологетов инфляционной теории это не очень смущало. Они отмахивались от оппонентов и говорили, что недостающие 70% «как-нибудь найдутся». И они действительно нашлись. Это большая победа теории инфляции, хотя найденная энергия оказалась такой странной, что вызвала больше вопросов, чем ответов. Похоже, что искомая темная энергия - это энергия самого вакуума.
    В представлении людей, не связанных с физикой, вакуум - «это когда ничего нет» - ни ве щества, ни частиц, ни полей. Однако это не совсем так. Стандартное определение вакуума - это состояние, в котором отсутствуют   
Активная газовая туманность, обнаруженная телескопом "Хаббл" в соседней галактике NGC 604. В этой гигантской газовой туманности уже родились тысячи звезд, и процесс их образования продолжается. Ее диаметр 1300 световых лет. 
 
1 - Пульсирующая модель Вселенной, период расширения - период сжатия. 2 - Вселенная со строго подогнанной средней плотностью, в точности равной критической. Расширение все время замедляется. 3 - Равномерно расширяющаяся по инерции Вселенная. 4 - Мир, расширяющийся со все большей скоростью. Доминирующая модель в наше время. 
 
частицы. Поскольку энергия заключена именно в частицах, то, как резонно полагали едва ли не все, включая и ученых, нет частиц - нет и энергии. 3начит, энергия вакуума равна нулю. Вся эта благостная картина рухнула в 1998 году, когда астрономические наблюдения показали, что разбегание галактик немножко отклоняется от закона Хаббла. Вызванный этими наблюдениями у космологов шок длился недолго. Очень быстро стали публиковаться статьи с объяснением этого факта. Самым простым и естественным из них оказалась идея о существовании положительной энергии вакуума. Ведь вакуум, в конце концов, означает просто отсутствие частиц, но почему лишь частицы моryт обладать энергией? Обнаруженная темная энергия оказалась распределенной в пространстве на удивление однородно. Подобную однородность трудно осуществить, ведь если бы эта энергия была заключена в каких-то неведомых частицах, гравитационное взаимодействие заставляло бы их собраться в грандиозные конгломераты, подобные галактикам. Поэтому энергия, спрятанная в пространстве - вакууме, очень изящно объясняет устроение нашего мира.
    Однако возможны и другие, более экзотические, варианты мироустроения. Например, модель Квинтэссенции, элементы которой были предложены советским физиком А.Д. Долговым в 1985 году, предполагает, что мы все еще скатываемся с той самой горки, о которой говорилось в начале нашего повествования. Причем катимся мы уже очень долго, и конца этому процессу не видно. Необычное название, позаимствованное у Аристотеля, обозначает некую «новую сущность», призванную объяснить, почему мир устроен так, а не иначе.
    Сегодня вариантов ответа на вопрос о будущем нашей Вселенной стало значительно больше. И они существенно зависят от того, какая теория, объясняющая скрытую энергию, является правильной. Предположим, что верно простейшее объяснение, при котором энергия вакуума положительна и не меняется со временем. В этом случае Вселенная уже никогда не сожмется и нам не грозит перегрев и Большой хлопок. Но за все хорошее приходится платить. В этом случае, как показывают расчеты, мы в будущем никогда не сможем достигнуть всех звезд. Более того, количество галактик, видимых с 3емли, будет уменьшаться, и через 10-20 млрд. лет в распоряжении человечества останется всего несколько соседних галактик, включая нашу - Млечный Путь, а также соседнюю Андромеду. Человечество уже не сможет увеличиваться количественно, и тогда придется заняться своей качественной составляющей. В утешение можно сказать, что несколько сотен миллиардов звезд, которы в будут нам доступны в столь отдаленном будущем, - это тоже немало.
    Впрочем, понадобятся ли нам звезды? 20 миллиардов лет - большой срок. Ведь всего за несколько сот миллионов лет жизнь развилась от трилобитов до современного человека. Так что наши далекие потомки, возможно, будут по внешнему виду и возможностям отличаться от нас еще больше, чем мы от трилобитов. Что же сулит им еще более отдаленное будущее, по прогнозам современных ученых? Ясно, что звезды будут тем или иным способом "умирать", но будут образовываться и новые. Этот процесс тоже не бесконечен - примерно через 1014 лет, по предположению ученых, во Вселенной останутся только слабосветящиеся объекты - белые и темные карлики, нейтронные звезды и черные дыры. Почти все они также погибнут через 1037 лет, исчерпав все запасы своей знергии. К этому моменту останутся лишь черные дыры, поглотившие всю остальную материю. Что может разрушить черную дыру? Любые наши попытки сделать это лишь увеличивают ее массу. Но «ничто не вечно под Луной». Оказывается, черные дыры медленно, но излучают частицы. Значит, их масса постепенно уменьшается. Все черные дыры тоже должны исчезнуть примерно через 10100 лет. После этого останутся лишь элементарные частицы, расстояние между которыми будет намного превосходить размеры современной Вселенной (примерно в 1090 раз) - ведь все это время Вселенная расширялась! Ну и, конечно, останется энергия вакуума, которая будет абсолютно доминировать во Вселенной. Кстати, свойства такого пространства впервые изучил В. де Ситтер еще в 1922 году. Так что нашим потомкам предстоит либо изменить физические законы Вселенной, либо перебраться в другие вселенные. Сейчас это кажется невероятным, но хочется верить в могущество человечества, как бы оно, человечество, ни выглядело в столь отдаленном будущем. Потому что времени у него предостаточно.
    Кстати, возможно, что уже и сейчас мы, сами того не ведая, создаем новые вселенные. Для того чтобы в очень маленькой области возникла новая вселенная, необходимо инициировать инфляционный процесс, который возможен только при высоких плотностях энергий. А ведь экспериментаторы уже давно создают такие области, сталкивая частицы на ускорителях... И хотя эти энергии еще очень далеки от инфляционных, вероятность создания вселенной на ускорителе уже не равна нулю. К сожалению, мы являемся тем самым «удаленным наблюдателем», для которого время жизни этой «рукотворной» вселенной слишком мало, и внедриться в нее и посмотреть, что там происходит, мы не можем...


 
 
 
 

 

Re: всё о науке
« Ответ #2 : 21 Августа 2006, 20:23:28 »
Параллельно с развитием идей квантовой теории развивались представления о строении материи. Одна из первых моделей атома была предложена в 1904 году Дж. Томсоном. Согласно модели Дж. Томсона атом представлял собой нейтральную систему, состоящую из заряженного шара с зарядом +Ze, внутри которого в определенных равновесных положениях находятся Z отрицательно заряженных электронов. Размер атома ~10-8 см. Прямые экспериментальные исследования строения атома были выполнены в 1911 году Э. Резерфордом, который изучал рассеяние -частиц при прохождении через тонкую фольгу. Дифференциальное сечение упругого рассеяния нерелятивистской заряженной частицы в кулоновском поле ядра-мишени описывается формулой Резерфорда



где Z1 и Z2 - заряды налетающей частицы и ядра-мишени, e - элементарный заряд, T - кинетическая энергия налетающей частицы. Угловое распределение a - частиц, рассеянных на золоте, свидетельствовало о том, что положительный заряд атома сосредоточен в пространственной области размером меньше 10-12 см. Это явилось основанием для планетарной модели атома Резерфорда, согласно которой атом состоит из тяжелого положительно заряженного атомного ядра с радиусом меньше 10-12 см и вращающихся вокруг него отрицательно заряженных электронов. Размер атома определяется размерами его электронной оболочки и составляет ~10-8 см, что в десятки тысяч раз превышает размер атомного ядра. Несмотря на то, что атомное ядро занимает лишь небольшую часть объема атома в нем сосредоточено 99,98% его массы. Предложенная Э. Резерфордом модель атома сыграла решающую роль в развитии квантовой механики. Дело в том, что на основе классической физики невозможно было объяснить наблюдаемую на опыте устойчивость атома. Вращающиеся на орбите электроны, согласно классической физике, должны были излучать энергию и, потеряв ее, упасть на атомное ядро. Поскольку такие явления как фотоэффект и явление дифракции электронов удалось объяснить с помощью квантовых представлений, вполне разумно казалось попытаться с помощью такого подхода объяснить и устойчивость электронных орбит атома. В 1913 году Н. Бор предложил новую квантовую теорию орбит. Согласно этой теории электрон может вращаться вокруг ядра неопределенно долго, не излучая энергию, если на его орбите укладывается целое число длин волн де Бройля. Таким образом устойчивые орбиты в атоме это орбиты, радиусы которых rn определяются соотношением


rn = n2h2/Zmee
что соответствует определенным энергетическим уровням атома. Атом может перейти из одного состояния в другое, испустив квант энергии - фотон.



Добавлено спустя: 2 мин.

Нерелятивистская квантовая теория.
Уравнение Шредингера
К середине 20-х годов стало очевидно, что полуклассическая теория атома Н. Бора не может дать полного описания свойств атома. В 1925 - 1926 гг. в работах В. Гейзенберга и Э. Шредингера был разработан общий подход описания квантовых явлений - квантовая теория. Эволюция квантовой системы в нерелятивистском случае описывается волновой функцией, удовлетворяющей уравнению Шредингера



где y(x,y,z,t) - волновая функция, - оператор Гамильтона (оператор полной энергии системы)

В нерелятивистском случае



где m - масса частицы,p - оператор импульса, U(x,y,z) - потенциальная энергия частицы. Задать закон движения частицы в квантовой механике это значит определить значение волновой функции в каждый момент времени в каждой точке пространства. Уравнение Шредингера играет в квантовой механике такую же роль как и второй закон Ньютона в классической механике. Самой поразительной особенностью квантовой физики оказался ее вероятностный характер. Вероятностный характер законов является фундаментальным свойством микромира. Квадрат модуля волновой функции, описывающей состояние квантовой системы, вычисленный в некоторой точке, определяет вероятность обнаружить частицу в данной точке.



Добавлено спустя: 1 мин.

Квантовая теория
Открытие атомного ядра и элементарных частиц явилось результатом изучения строения вещества, достигнутым физикой в конце XIX века. Исследования электрических явлений в жидкостях и газах, оптических спектров атомов, рентгеновских лучей, фотоэффекта показали, что вещество имеет сложную структуру. В 1897 году при исследовании катодных лучей Дж. Томсоном был открыт электрон - носитель отрицательного элементарного электрического заряда. ХХ век принес много неожиданностей в физику. Именно в это время классическая физика оказалась несостоятельной в объяснении новых экспериментальных фактов. Уменьшение временных и пространственных масштабов, в которых разыгрываются физические явления, привели к "новой физике", столь непохожей на привычную традиционную классическую физику. Развитие физики в начале XX века привело к полному пересмотру классических представлений. В основе "новой физики" лежат две фундаментальные теории:

теория относительности
квантовая теория.
Теория относительности и квантовая теория являются фундаментом, на котором построено описание явлений микромира
Создание А. Эйнштейном в 1905 году теории относительности привело к радикальному пересмотру представлений о свойствах пространства и времени, взглядов на характер электромагнитного поля. Стало ясно, что невозможно создание механических моделей для всех физических явлений.

В основу теории относительности положены две физические концепции.

Согласно принципу относительности равномерное и прямолинейное движение тел не влияет на происходящие в них процессы
Существует предельная скорость распространения взаимодействия - скорость света в пустоте. Скорость света является фундаментальной константой современной теории. Существование предельной скорости распространения взаимодействия означает, что существует связь между пространственными и временными интервалами.
Математической основой специальной теории относительности являются преобразования Лоренца. Полная энергия и импульс частицы определяются соотношениями

E = mc2y
p = ymv = E/(c2v).
где E, р и m - полная энергия, импульс и масса частицы, с - скорость света в вакууме, y = 1/(1 - (v/c)2)1/2. Полная энергия и импульс частицы зависят от системы отсчета. Масса не меняется при переходе от одной инерциальной системы отсчета к другой. Она является лоренцевым инвариантом. Полная энергия импульс и масса связаны соотношением


E2 - p2c2 = m2c4
Из соотношения (1) и (2) следует, что если энергия E и импульс p измеряются в двух различных системах движущихся друг относительно друга со скоростью v, то энергия и импульс будут иметь в этих системах различные значения. Однако величина E2 - p2c2, которая называется релятивистский инвариант, будет в этих системах одинаковой.

В 1900 г. была опубликована работа М. Планка, посвященная проблеме теплового излучения тел. М. Планк моделировал вещество как совокупность гармонических осцилляторов различной частоты. Предположив, что излучение происходит не непрерывно, а порциями - квантами, он получил формулу для распределения энергии по спектру теплового излучения, которая хорошо согласовывалась с опытными данными



где h - постоянная Планка, k - постоянная Больцмана, T - температура, - частота излучения.

Так, впервые в физике появилась новая фундаментальная константа - постоянная Планка. Гипотеза Планка о квантовой природе теплового излучения противоречит основам классической физики и показала границы ее применимости.

Через пять лет А. Эйнштейн, обобщив идею М. Планка, показал, что квантованность является общим свойством электромагнитного излучения. Согласно идеям А. Эйнштейна электромагнитное излучение состоит из квантов, названных позднее фотонами. Каждый фотон имеет определенную энергию и импульс:


E = Hv, p = (H/y)n,
где y и v - длина волны и частота фотона, n - единичный вектор в направлении распространения волны.

Представления о квантованности электромагнитного излучения позволили объяснить закономерности фотоэффекта, исследованные экспериментально Г. Герцем и А. Столетовым. На основе квантовой теории А. Комптоном в 1922 году было объяснено явление упругого рассеяния электромагнитного излучения на свободных электронах, сопровождающееся увеличением длины волны света. Открытие двойственной природы электромагнитного излучения - корпускулярно-волнового дуализма оказало значительное влияние на развитие квантовой физики, объяснение природы материи. В 1924 г. Луи де Бройль выдвинул гипотезу об универсальности корпускулярно-волнового дуализма. Согласно этой гипотезе не только фотоны, но и любые другие частицы материи наряду с корпускулярными обладают также и волновыми свойствами. Прямыми опытами, подтверждающими идею корпускулярно-волнового дуализма, были опыты, выполненные в 1927 году К. Дэвиссоном и Л. Джермером по дифракции электронов на монокристалле никеля. Позднее наблюдалась дифракция и других микрочастиц. Метод дифракции частиц в настоящее время широко используется в изучении строения и свойств вещества.

Экспериментальное подтверждение идеи корпускулярно-волнового дуализма привело к пересмотру привычных представлений о движении частиц и способа описания частиц. Для классических материальных точек характерно движение по определенным траекториям, так, что их координаты и импульсы в любой момент времени точно известны. Для квантовых частиц это утверждение неприемлемо, так как для квантовой частицы импульс частицы связан с ее длиной волны, а говорить о длине волны в данной точке пространства бессмысленно. Поэтому для квантовой частицы нельзя одновременно точно определить значения ее координат и импульса. Если частица занимает точно определенное положение в пространстве, то ее импульс полностью неопределен и наоборот, частица с определенным импульсом имеет полностью неопределенную координату.

Из принципа неопределенности следует, что в области квантовых явлений неправомерна постановка некоторых вопросов, вполне естественных для классической физики. Так, например, не имеет смысла говорить о движении частицы по определенной траектории. Необходим принципиально новый подход к описанию физических систем. Не все физические величины, характеризующие систему, могут быть измерены одновременно.



Добавлено через: 58 сек

История Ядерной Физики
В 1939 году впервые удалось расщепить атом урана. Прошло еще 3 года, и в США был создан реактор для осуществления управляемой ядерной реакции. Затем в 1945г. была изготовлена и испытана атомная бомба, а в 1954г. в нашей стране была пущена в эксплуа-тацию первая в мире атомная электростанция. Во всех этих случаях использовалась огром-ная энергия распада атомного ядра. Еще большее количество энергии выделяется в резуль-тате синтеза атомных ядер. В 1953 году в СССР впервые была испытана термоядерная бом-ба, и человек научился воспроизводить процессы, происходящие на солнце. Пока использо-вать для мирных целей ядерный синтез нельзя, но, если это станет возможным, то люди обеспечат себя дешевой энергией на миллиарды лет. Эта проблема - одно из важнейших направлений современной физики на протяжении последних 50 лет.


Ядерная энергия выделяется при распаде или синтезе атомных ядер. Любая энергия - физическая, химическая, или ядерная проявляется своей способностью выполнять работу, излучать высокую температуру или радиацию. Энергия в любой системе всегда сохраняет-ся, но она может быть передана другой системе или изменена по форме.
Приблизительно до 1800 года основным топливом было дерево. Энергия древесины получена из солнечной энергии, запасенной в растениях в течение их жизни. Начиная с Ин-дустриальной революции, люди зависели от полезных ископаемых - угля и нефти, энергия которых также происходила из запасенной солнечной энергии. Когда топливо типа угля сжигается, атомы водорода и углерода, содержащиеся в угле, объединяются с атомами ки-слорода воздуха. При возникновении водного или углеродистого диоксида происходит вы-деление высокой температуры, эквивалентной приблизительно 1.6 киловатт-час на кило-грамм или приблизительно 10 электрон-вольт на атом углерода. Это количество энергии типично для химических реакций, приводящих к изменению электронной структуры ато-мов. Части энергии, выделенной в виде высокой температуры, достаточно для поддержа-ния продолжения реакции.

Атом

Атом состоит из маленького, массивного, положительно заряженного ядра, окру-женного электронами. Ядро составляет основную часть массы атома. Оно состоит из нейтронов и протонов (общее название нуклоны), связанных между собой очень большими ядерными силами, намного превышающими электрические силы, которые связывают элек-троны с ядром. Энергия ядра определяется тем, насколько сильно его нейтроны и протоны удерживаются ядерными силами. Энергия нуклона - это энергия, требуемая, чтобы удалить один нейтрон или протон из ядра. Если два легких ядра соединяются, чтобы сформировать более тяжелое ядро или если тяжелое ядро распадается на два более легких, то в обоих случаях выделяется большое количество энергии.


Ядерный Синтез

Выделение ядерной энергии может происходить в нижнем конце кривой энергии при соединение двух легких ядер в одно более тяжелое. Энергия, излучаемая звездами подобно солнцу, является результатом таких же реакций синтеза в их недрах.


При огромном давлении и температуре 15 миллионов градусов C0. Существующие там водородные ядра объединяется и в результате их синтеза образуется энергия солнца.
Ядерный синтез был впервые достигнут на Земле в начале 30-ых годов. В цикло-троне - ускорителе элементарных частиц - производили бомбардировку ядер дейтерия. При этом происходило выделение высокой температуры, однако, эту энергию не удавалось ис-пользовать. В 1950-ых годах первый крупномасштабный, но не контролируемый процесс выделения энергии синтеза был продемонстрирован в испытаниях термоядерного оружия Соединенными Штатами, СССР, Великобританией и Францией. Однако это была кратко-временная и неуправляемая реакция, которая не могла быть использована для получения электроэнергии.
В реакциях распада нейтрон, который не имеет никакого электрического заряда, мо-жет легко приближаться и реагировать с расщепляемым ядром, например урана-235. В ти-пичной реакции синтеза, однако, реагирующие ядра имеют положительный электрический заряд и поэтому по закону Кулона отталкиваются, таким образом силы, возникающие вследствие закона Кулона, должны быть преодолены до того, как ядра смогут соединиться. Это происходит, когда температура реагирующего газа - достаточно высока от 50 до 100 миллионов градусов C0. В газе тяжелых водородных изотопов дейтерия и трития при такой температуре происходит реакция синтеза:


выделяя приблизительно 17.6 Мэв. Энергия появляется сначала, как кинетическая энергия гелия-4 и нейтрона, но скоро проявляется в виде высокой температуры в окружающих мате-риалах и газе.
Если при такой высокой температуре, плотность газа составляет 10-1 атмосфер (т.е. почти вакуум), то активный гелий-4 может передавать свою энергию окружающему водороду. Таким образом, поддерживается высокая температура и создаются условия для протекания самопроиз-вольной реакции синтеза. При этих условиях происходит «ядерное воспламенение ».
Достижению условий управляемого термоядерного синтеза препятствуют несколько основных проблем. Во-первых, нужно нагреть газ до очень высокой температуры. Во-вторых, необходимо контролировать количество реагирующих ядер в течение достаточно долгого времени. В-третьих, количество выделяемой энергии должно быть больше, чем бы-ло затрачено для нагревания и ограничения плотности газа. Следующая проблема - накопление этой энергии и преобразование ее в электричество.


При температурах даже 100000 C0 все атомы водорода полностью ионизируются. Газ состоит из электрически нейтральной структуры: положительно заряженных ядер и отрица-тельно заряженных свободных электронов. Это состояние называется плазмой.
Плазма, достаточно горяча для синтеза, но не может находиться в обычных материа-лах. Плазма охладилась бы очень быстро, и стенки сосуда были бы разрушены при перепа-де температур. Однако, так как плазма состоит из заряженных ядер и электронов, которые двигаются по спирали вокруг силовых линий магнитного поля, плазма может содержаться в ограниченной магнитным полем области без того, чтобы реагировать со стенками сосуда.
В любом управляемом устройстве синтеза выделение энергии должно превышать энергию, требуемую, для ограничения и нагрева плазмы. Это условие может быть выпол-нено, когда время заключения плазмы t и ее плотность n превышает приблизительно 1014 . Отношения tn > 1014 называются критерием Лоусона.


Многочисленные схемы магнитного заключения плазмы были испытаны начиная с 1950 в Соединенных Штатах, СССР, Великобритании, Японии и в других местах. Термо-ядерные реакции наблюдали, но критерий Лоусона редко превышал 1012 . Однако одно уст-ройство “Токамак” (это название – сокращение русских слов: ТОроидальная КАмера с МАгнитными Катушками), первоначально предложенное в СССР Игорем Таммом и Андреем Сахаровым начало давать хорошие результаты в начале 1960-ых.История Ядерной Физики
 

Токамак


Токамак - это тороидальная вакуумная камера, на которую надеты катушки, соз-дающие сильное тороидальное магнитное поле. Тороидальное магнитное поле равное при-близительно 50000 Гаусс поддерживается внутри этой камеры мощными электромагнитами. Продольный поток нескольких миллионов ампер создается в плазме катушками транс-форматора. Замкнутые магнитные полевые линии устойчиво ограничивают плазму.


Основанные на успешном действии экспериментального маленького "Tокамака" в нескольких лабораториях в начале 1980-ых были построены два больших устройства, один в Принстонском Университете в Соединенных Штатах и один в СССР. В "Tокамаке" высо-кая плазменная температура возникает в результате выделения тепла при сопротивлении мощного тороидального потока, а также путем дополнительного нагревания при введении нейтрального луча, что в совокупности должно приводить к воспламенению.


Другой возможный путь получить энергию синтеза - также инерционного свойства. В этом случае топливо - тритий или дейтерий содержится в пределах крошечного шарика, бомбардируемого с нескольких сторон импульсным лазерным лучом. Это приводит к взры-ву шарика, с образованием термоядерной реакции, которая зажигает топливо. Несколько лабораторий в Соединенных Штатах и в других местах в настоящее время исследуют эту возможность. Прогресс исследования синтеза был многообещающим, но задача создания практических систем для устойчивой реакции синтеза, которая производит большее коли-чество энергии чем потребляет, пока остается не решенной и потребует еще много времени и сил.


Однако, некоторое продвижение в этом вопросе было достигнуто в начале 1990-ых. В 1991 году впервые удалось получить существенное количество энергии - приблизительно 1.7 миллион ватт в результате управляемого ядерного синтеза в Объединенной европейской лаборатории (Торус). В декабре 1993 года, исследователи в Принстонском университете использовали реактор типа токамак для реакции синтеза, чтобы произвести управляемую ядерную реакцию, выделенная энергия равнялась 5.6 миллионов ватт. Однако, и в реакторе типа токамак и в лаборатории Торус затратили большее количество энергии, чем было по-лучено.
Если получение энергии ядерного синтеза станет практически доступным, то это даст следующие преимущества: первое - безграничный источник топлива, дейтерий из океана; второе - исключит возможность несчастного случая в реакторе, так как количество топлива в системе очень мало; и третье - отходы намного менее радиоактивны и их проще хранить, чем отходы от реакций распада.

 



 


Добавлено через: 2 мин. 20 сек



Ядерные реакции
В 1919 г., продолжая эксперименты по рассеянию -частиц на различных мишенях, Э. Резерфорд обнаружил, что при бомбардировке ядер азота -частицами из него вылетают положительно заряженные частицы. Величина заряда этих частиц по абсолютной величине была равна величине заряда электрона, но противоположна по знаку. Масса частицы была почти в 2000 раз больше массы электрона. Повторение опыта на других мишенях показало, что положительно заряженные частицы вылетают и из других атомных ядер. Обнаруженные частицы были названы протонами. Ядерная реакция, в которой впервые были обнаружены протоны, записывается в виде


14N + a 17O + p
Уже первый взгляд на написанную реакцию свидетельствует о том, что Э. Резерфорду удалось осуществить то, что в течение многих веков пытались сделать алхимики - превратить одно вещество в другое. Ядро азота превращалось в ядро кислорода. Это была первая ядерная реакция, осуществленная искусственно в лабораторных условиях. В то же время стало ясно, что протоны следует считать элементарными частицами, входящими в состав атомного ядра.

Измерения масс атомов с помощью масс-спектрографа Ф. Астона показали, что массы всех исследованных атомов с точностью ~10% пропорциональны массе протона - M ~ Amp, где A принимает только целочисленные значения. Этот факт послужил основанием для создания протон-электронной модели атомного ядра. В этой модели предполагалось, что атомное ядро состоит из A протонов и (A-Z) электронов. В этой модели легко объяснялись обнаруженная Астоном пропорциональность массы атомного ядра числу A и величина заряда атомного ядра. Однако, по мере накопления экспериментальных данных по массам атомных ядер, магнитным моментам и спинам атомных ядер, протон-электронная модель ядра начала сталкиваться с трудностями в объяснении экспериментальных данных. Тем не менее, протон-электронная модель ядра продержалась вплоть до 1932 года. Простейшая модель a -распада была предложена в 1928 году Г. Гамовым и независимо от него Г. Герни и Э. Кондоном. В этой модели предполагалось, что a - частица постоянно существует в ядре. Вероятность -распада в основном определяется вероятностью прохождения a - частиц через кулоновский потенциальный барьер


 
Потенциальная энергия a - частицы
В рамках этой модели удалось объяснить сильную зависимость вероятности -распада от энергии. В 1930-1932 гг. разыгрались полные драматизма события. Продолжая начатые Резерфордом эксперименты по облучению тонких фольг из бериллия a - частицами, В. Боте и Г. Беккер обнаружили сильно проникающее излучение, состоящее из нейтральных частиц. Первоначально выдвинутая гипотеза о том, что это фотоны высоких энергий, не выдержала проверки. Лишь в 1932 г. английский физик Д. Чедвик показал, что это новая, до сих пор неизвестная нейтральная частица с массой, приблизительно равной массе протона. Обнаруженная частица была названа нейтроном. Сразу после открытия нейтрона Д. Иваненко и В. Гейзенберг независимо выдвинули гипотезу, что атомное ядро состоит из нейтронов и протонов. Эта модель выдержала испытания временем и, как показывают экспериментальнные наблюдения, в обычных условиях отклонения от протонно-нейтронной модели, связанные с внутренней структурой нуклонов, невелики. Протоны и нейтроны в атомном ядре связаны особыми силами, для которых характерна большая величина и малый радиус действия ~10-13 см. Ядерные силы существенно превосходят силы электростатического кулоновского отталкивания протонов и обуславливают большую плотность вещества ядра ~1014 г/см3. Этот новый тип взаимодействия, связывающий нейтроны и протоны, назвали ядерным или сильным взаимодействием. Эти два названия долгое время считали синонимами. Сегодня мы знаем: сильное взаимодействие связывает кварки внутри нуклона, а ядерное взаимодействие, связывающее нейтроны и протоны, является следствием сильного взаимодействия. Ядерное взаимодействие меняет свойства нуклонов. Так, например, свободный нейтрон, являясь нестабильной частицей, внутри ядра может стать стабильным. По отношению к сильному взаимодействию протон и нейтрон имеют одинаковые свойства. Это привело к открытию новой симметрии - изотопической инвариантности сильных взаимодействий. Была введена новая квантовая характеристика - изоспин. Протон и нейтрон образуют изотопический дублет (T = 1/2) и могут рассматриваться как два квантовых состояния одной частицы - нуклона с разными проекциями изоспина


p|T = 1/2, Tz = +1/2>, n|T = 1/2, Tz = -1/2>.,
С помощью изотопической инвариантности сильных взаимодействий в дальнейшем удалось предсказать массы и электрические заряды некоторых новых элементарных частиц. Протоны и нейтроны образуют атомные ядра всех химических элементов. Число протонов в ядре определяет атомный номер элемента и, следовательно, его место в периодической системе элементов Менделеева.



На рисунке показана N-Z диаграмма атомных ядер. Черными точками показаны стабильные ядра. Область расположения стабильных ядер обычно называют долиной стабильности. С левой стороны от стабильных ядер находятся ядра, перегруженные протонами (протоноизбыточные ядра), справа – ядра, перегруженные нейтронами (нейтроноизбыточные ядра). Протоноизбыточные ядра являются радиоактивными и превращаются в стабильные в основном в результате a - распадов, протон, входящий в состав ядра при этом превращается в нейтрон. Нейтроноизбыточные ядра также являются радиоактивными и превращаются в стабильные в результате a - распадов, с превращением нейтрона ядра в протон.



Добавлено спустя: 1 мин.

Как образовались атомные ядра
Окружающий нас мир состоит из различных химических элементов. Как в естественных условиях образовалось то многообразие химических элементов, которое мы наблюдаем? На рис. 12 показана относительная распространенность элементов на Земле, в метеоритах, на Солнце, и в звездах.





Распространенность нуклидов относительно кремния в зависимости от массового числа (выбраны такие единицы, в которых распространенность кремния равна 106)
Среди наиболее существенных особенностей распространенности элементов можно выделить следующие:

Вещество во Вселенной в основном состоит из водорода - ~ 90% всех атомов.
По распространенности гелий занимает второе место, составляя ~ 10% от числа атомов водорода.
Существует глубокий минимум, соответствующий литию, бериллию и бору.
Сразу за этим глубоким минимумом следует максимум, обусловленный повышенной распространенностью углерода и кислорода.
Вслед за кислородным максимумом идет скачкообразное падение распространенности элементов вплоть до скандия (Z = 21, A = 45).
Наблюдается резкое повышение распространенности элементов в районе железа ("железный пик").
После A » 60 уменьшение распространенности происходит более плавно.
Наблюдается заметное различие между элементами с четным и нечетным Z. Как правило, элементы с четным Z являются более распространенными.
Ряд ядер, так называемые обойденные ядра - 74Se, 78Kr, 92Mo, 96Ru и др., имеют распространенность на два порядка меньшую, чем соседние ядра.
Для объяснения образования химических элементов в 1948 году Г. Гамовым была выдвинута теория Большого взрыва. Согласно модели Гамова синтез всех элементов происходил во время Большого взрыва в результате неравновесного захвата атомными ядрами нейтронов с испусканием -квантов и последующим -распадом тяжелых ядер. Однако детальные расчеты показали, что в этой модели невозможно объяснить образование элементов тяжелее Li. На начальном этапе эволюции Вселенной, примерно через 100 с после Взрыва, при температуре ~ 109 K в термоядерных реакциях образовались лишь самые легкие атомные ядра - изотопы водорода и гелия.
Согласно современным представлениям образование более тяжелых ядер на этом этапе оказывается невозможным. Более тяжелые ядра образовались лишь через миллиарды лет после Большого взрыва в процессе звездной эволюции. В 1939 году Г. Бете впервые рассмотрел CNO-цикл как один из путей образования гелия из водорода в звездах. Особенность CNO-цикла состоит в том, что он, начинаясь с ядра углерода, сводится к последовательному добавлению 4-х протонов с образованием в конце CNO-цикла ядра 4He.

М. Бeрбидж, Г. Бeрбидж, В. Фаулер, Ф. Хойл в 1957 году дали следующее описание основных процессов звездной эволюции (рис.13), в которых происходит образование атомных ядер.

Горение водорода, в результате этого процесса образуются ядра 4He.
Горение гелия. В результате реакции 4He + 4He + 4He->12C + y образуются ядра 12C.
a - процесс. В результате последовательного захвата a - частиц образуются ядра 16O, 20Ne, 24Mg, 28Si …
e-процесс. При достижении температуры 5·109 K в звездах в условиях термодинамического равновесия протекает большое количество разнообразных реакций, в результате чего образуются атомные ядра вплоть до Fe и Ni. Ядра с A ~ 60 - наиболее сильно связанные атомные ядра. Поэтому на них кончается цепочка ядерных реакций синтеза, сопровождающихся выделением энергии.
s-процесс. Ядра тяжелее Fe образуются в реакциях последовательного захвата нейтронов. Последующий -распад повышает порядковый номер образующихся атомных ядер. Интервал времени между последовательными захватами нейтронов больше периодов b - распада.
r-процесс. Если скорость последовательного захвата нейтронов гораздо больше скорости b - распада атомного ядра, то оно успевает захватить большое число нейтронов и лишь затем, в результате последовательной цепочки b - распадов, превращается в стабильное ядро. Обычно считается, что r-процессы происходят в результате взрывов Сверхновых.
P-процесс. Некоторые стабильные нейтронодефицитные ядра (так называемые обойденные ядра) образуются в реакциях захвата протона, в реакциях (b,n) или в реакциях под действием нейтрино.
X-процесс. Механизм образования легких ядер Li, Be, B в то время не был известен. Образовавшись в звездах, эти ядра должны были интенсивно разрушаться в реакциях под воздействием протонов. Сегодня считается, что эти ядра образуются в результате взаимодействия космических лучей с космической пылью. (Легкие ядра образуются также на дозвездной стадии эволюции Вселенной.)


Добавлено спустя: 1 мин.

Кварки
К середине шестидесятых годов число обнаруженных сильновзаимодействующих элементарных частиц - адронов перевалило за 100. Возникла уверенность, что наблюдаемые частицы не отражают предельный элементарный уровень материи.

В 1964 году независимо друг от друга М. Гелл-Манн и Д. Цвейг предложили модель кварков - частиц, из которых могут состоять адроны. Появление такой модели было вполне естественным. Эксперименты по рассеянию электронов на нуклонах показали, что нейтрон и протон в отличие от электрона имеют сложную структуру. Поэтому гипотеза о новых фундаментальных частицах, из которых можно строить адроны, казалась вполне правдоподобной. Для того чтобы объяснить наблюдаемые свойства адронов, кваркам пришлось приписать довольно необычайные свойства. Кварки должны иметь дробный электрический заряд +2/3 или -1/3. Барионы "конструировались" из трех кварков, мезоны "конструировались" из кварка и антикварка. Все обнаруженные до 1974 г. адроны можно было описать, составляя их из кварков всего лишь трех типов - u, d, s. При этом трехкварковая модель адронов казалась достаточно замкнутой - практически каждой комбинации кварков соответствовала экспериментально наблюдаемая частица.

1974 год завершился для физиков сенсацией. Одновременно две группы физиков объявили о наблюдении новой частицы. Теперь ее называют . Масса обнаруженной частицы ~3.1 ГэВ. Причиной сенсации было необычайно большое время жизни . Оказалось, что ее время жизни почти в 1000 раз больше, чем у известных частиц такой массы. Дальнейшие исследования показали, что причиной такого долгожития является то, что в ее состав входит новый неизвестный ранее с-кварк, названный очарованным кварком.Было высказано предположение, что это мезон, состоящий из с-кварка и с-антикварка, т.е. это частица со скрытым очарованием. Так же как с s-кварком связано квантовое число s - странность, с-кварк несет новое квантовое число c, названное "очарованием". Очарованный кварк должен порождать новое семейство адронов, имеющих в своем составе с-кварк или с-антикварк. Все эти частицы тяжелые, т.к. масса очарованного кварка больше массы странного кварка. Итак кварков стало 4, но на этом открытие новых кварков не завершилось.

 В 1977 году были открыты нейтральные мезоны с массами около 10 ГэВ. Они получили название ипсилон-мезонов. Так же как и -мезоны они наблюдались в реакции образования мюонных пар в протон-ядерных столкновениях и на электронно-позитронных коллайдерах и также как -мезоны они долго живущие (ширина распада -мезона 53 кэВ). Это означало открытие пятого кварка b (от beauty). В состав -мезона входят b-кварк и b-антикварк и он обладает скрытой красотой.

После почти двадцатилетних поисков, в 1995 году был открыт шестой, самый "тяжелый" кварк - t-кварк. Таким образом, на этом этапе развития наших представлений о структуре материи на первый план выходят "новые элементарные частицы" - кварки. Все адроны состоят из шести кварков и есть достаточно серьезные основания считать, что их не должно быть больше.

Каждый тип кварка имеет еще одно квантовое число - цвет, которое может принимать три значения - красный, синий и зеленый.Это чисто условные названия. Главное, что каждый кварк имеет еще три дополнительных квантовых числа. Гипотеза о существовании цвета у кварков, впервые высказанная в 1965 году независимо Н. Боголюбовым, Б. Струминским, А. Тавхелидзе и М. Ханом, Й. Намбу, была впоследствии подтверждена в большом количестве экспериментов. Существует цветовая симметрия сильных взаимодействий. Сильное взаимодействие кварка не зависит от его цветового состояния, т.е. оно одинаково для всех трех цветов. Поскольку адроны состоят из кварков, то структура адронов в основном определяется сильным и электромагнитным взаимодействием кварков.

Основные положения составной модели адронов - модели кварков:

все сильновзаимодействующие частицы состоят из кварков; кварки являются фермионами; по современным представлениям они бесструктурны;
кварки имеют внутренние квантовые числа: электрический заряд Q, спин 1/2, четность P, барионное число B, изоспин I, проекцию изоспина I3, странность s, шарм c, bottomness b, topness t (совокупность этих внутренних квантовых чисел, характеризующих определенный тип кварка, называется также "ароматом" кварка), цвет;
квантовые числа кварков определяют характеристики адронов;
барионы (фермионы с барионным числом B = 1) строятся из трех кварков;
антибарионы (фермионы с барионным числом B = -1) строятся из трех антикварков;
мезоны (бозоны с барионным числом B = 0) строятся из кварка и антикварка;
число цветов кварков равно трем - красный, зеленый, синий;
известные барионы и мезоны - бесцветны;
кварки в адронах связаны глюонами;
кварки участвуют в электромагнитных взаимодействиях, излучая или поглощая -квант, при этом не изменяется ни цвет, ни тип (аромат) кварков
кварки участвуют в слабых взаимодействиях, излучая или поглощая или Z-бозоны, при этом может изменяться тип (аромат) кварка, но цвет кварка при этом остается без изменения
кварки участвуют в сильных взаимодействиях, излучая или поглощая глюон g, при этом изменяется цвет кварка, а его тип (аромат) остается неизменным
каждому адрону приписывается определенная внутренняя четность. Внутреннюю четность адрона легко получить, воспользовавшись вышеуказанными правилами:


Добавлено через: 53 сек



Размеры ядра
Еще на ранней стадии изучения структуры атомных ядер эксперименты по рассеянию -частиц на легких ядрах дали основание предполагать, что плотность ядерного вещества у всех ядер приблизительно постоянна. Это предположение было в дальнейшем детально исследовано в опытах Р. Хофштатера по рассеянию электронов высокой энергии на сферических ядрах, расположенных вблизи долины стабильности. Оказалось, что плотности распределения ядерной материи и электрического заряда практически совпадают и описываются распределением Ферми



где 0 - плотность ядерной материи в центре ядра, R - радиус ядра – расстояние, на котором плотность ядерной материи спадает в два раза, a - параметр диффузности.

Для ядер, расположенных вблизи долины стабильности, были установлены следующие закономерности.

Плотность ядерной материи в центре ядра приблизительно одинакова у всех ядер и составляет ~ 0.17 нукл./Фм3 (см. рис.).
Толщина поверхностного слоя (спад плотности от 0.9p0 до 0.1p0) у всех ядер примерно одинакова d = 4.4a = 2.4·Фм.
Величина радиуса ядра определяется числом нуклонов, R = 1.3A1/3 Фм.



Плотность распределения ядерной материи
Таким образом, мы видим, что атомные ядра вблизи долины стабильности представляют собой довольно компактные объекты. Их радиусы меняются от 2-3 Фм у самых легких ядер до 9-10 Фм у самых тяжелых. Для ядер, удаленных от долины стабильности, ситуация иная.



Добавлено спустя: 1 мин.

Аннигиляция
Открытие позитрона, частицы по своим характеристикам похожей на электрон, но имеющей в отличие от электрона положительный единичный заряд, было исключительно важным событием в физике. Еще в 1928 году П. Дирак предложил уравнение для описания релятивистской квантовой механики электрона. Оказалось, что уравнение Дирака имеет два решения, как с положительной, так и с отрицательной энергией. Состояние с отрицательной энергией описывает частицу аналогичную электрону, но имеющую положительный электрический заряд. Позитрон был первой открытой частицей из целого класса частиц, которые получили название античастиц. До открытия позитрона казалась необъяснимой неодинаковая роль положительных и отрицательных зарядов в природе. Почему существует тяжелый положительно заряженный протон, и нет тяжелой частицы с массой протона и отрицательным зарядом? Зато существует легкий отрицательно заряженный электрон. Открытие позитрона по существу восстановило зарядовую симметрию для легких частиц и поставило перед физиками проблему поиска античастицы для протона. Другая неожиданность - позитрон является стабильной частицей и может в пустом пространстве существовать бесконечно долго. Однако при столкновении электрона и позитрона происходит их аннигиляция. Электрон и позитрон исчезают, и вместо них рождаются два y - кванта



Происходит превращение частиц с массой покоя отличной от нуля (0.511 МэВ) в частицы с нулевой массой покоя (фотоны), т.е. масса покоя не сохраняется. Наряду с процессом аннигиляции был обнаружен и процесс рождения пары электрон-позитрон. Электрон-позитронные пары легко рождались y-квантами с энергией в несколько МэВ в кулоновском поле атомного ядра. В классической физике понятия частицы и волны резко разграничены - одни физические объекты являются частицами, а другие - волнами. Превращение пары электрон-позитрон в фотоны стало дополнительным подтверждением представления о том, что между излучением и веществом много общего. Процессы аннигиляции и рождения пар заставили по-новому осмыслить, что же такое элементарная частица. Элементарная частица перестала быть неизменным "кирпичиком" в строении материи. Возникла новая чрезвычайно глубокая концепция взаимного превращения элементарных частиц. Оказалось, что элементарные частицы могут рождаться и исчезать, превращаясь в другие элементарные частицы. Следующая элементарная частица - нейтрино также вначале была предсказана теорией. Открытие нейтрона, казалось, внесло ясность в строение вещества. Все элементарные частицы, необходимые для построения атома: протон, нейтрон, электрон - были известны. Если в составе атомного ядра нет электронов, то откуда же берутся электроны, которые наблюдаются при радиоактивном распаде ядер?


Re: всё о науке
« Ответ #3 : 21 Августа 2006, 21:40:08 »
ну как нравиться? :huh:

Добавлено спустя: 1 час. 2 мин.
IQ: горе от ума


Идея, что человеческий разум можно измерить, появилась в 19 веке. Долгое время существовала идея, что на земле есть небольшое количество слабоумных, столько же гениев, а интеллектуальный уровень остального человечества был примерно одинаковым. Последнее утверждение относилось только к европейцам – африканцы и другие «дикари» автоматически считались менее развитыми. Достижения «среднего» человека считались результатом трудолюбия, желания и, часто, религиозности.

Технологическая революция XVIII...XIX веков заставила учёных задуматься о более «научных» теориях интеллекта. Появление генетики, и особенно публикация эволюционной теории Дарвина в 1859 году, побудило исследователей приглядеться к физическим и генетическим факторам, как определяющим степень интеллекта.

Именно из этого направления возникла наука, которая оказалась одним из самых больших заблуждений XIX века – френология. Идея, что человеческие характеристики, в том числе интеллект, можно буквально «измерить», оценивая размер и форму головы, некоторое время была очень популярной. Позднее, в результате многочисленных экспериментов, постулаты френологии были полностью опровергнуты. Однако, это теория внесла вклад в изучение интеллекта – френологи считали, что разные части мозга выполняют разные функции. Английский учёный Франсис Голтон (Francis Gaulton) был одним из самых известных сторонников френологии и считал, что только генетика влияла на интеллект. Так как обучение не влияло на разумность человека, Голтон предлагал начать в Британской Империи евгеническую программу, чтобы с помощью селекции вывести более высококачественного человека. Позднее идеи Голтона были приняты на вооружение нацистами.

Один из учеников Голтона, Джеймс Котелл (James Cattell), решил использовать более систематические способы измерения интеллекта в начале XX-го века. Именно он опубликовал первые «интеллектуальные экзамены», как он их называл, которые использовали объективные критерии. Его тесты потеряли популярность после того, как было доказано, что результаты «интеллектуальных экзаменов» не имеют никакого отношения к реальным способностям человека.

В тоже время во Франции, государство поручило психологу Альфреду Бине (Alfred Binet) разработать тесты для определения умственных способностей детей, с целью разделения «нормальных» и «отсталых» детей. Бине разработал тест, который остается популярным до сих пор, под названием «Ай-Кью Тест» (IQ test, IQ – intelligence quotient – коэффициент интеллекта). Тест отличался тем, что он показывал не абсолютный уровень интеллекта, а сравнительный уровень ума ребёнка в сравнении с другими детьми его возраста. Чем старше ребёнок, тем в меньшей степени возраст может повлиять на оценку. Например, средняя оценка была 100 – если пятилетний малыш показывал уровень интеллекта, эквивалентный уровню, присущему шестилетнему ребенку, он получал 120 баллов. Но десятилетний ребёнок, который показывал уровень интеллекта 11-летнего, получал только 110 баллов. Результаты теста разделены на несколько групп. Оценка выше 140...150 баллов означает, что тест прошел гений, 110...140 баллов свидетельствуют о высоком уровне интеллекта, 90...110 – среднем уровне. 75 баллов и ниже говорят о неразвитых умственных способностях.

Тест быстро пересек национальные границы и стал популярным в США. В 1916 году, заключенный, который был приговорён к смертной казни, продемонстрировал такой низкий уровень IQ, что суд его отправил в санаторий, заявив что детский ум преступника не позволял ему различать плохое и хорошее. В 1917 году вооруженные силы США начали использовать IQ-тесты для классификаций солдат. Подобный экзамен прошли более 2 млн человек. Вскоре IQ-тесты взяли на вооружение университеты и частные компании, которые стали применять их для проверки абитуриентов и потенциальных сотрудников.

В 1960-е и 1970-е годы репутация IQ-тестов сильно пострадала. Сперва их авторы были обвинены в том, что вопросы были составлены таким образом, чтобы давать преимущество белым и богатым людям. Позднее эксперименты показали, что существуют разные виды интеллекта и что невозможно объективно измерить такое субъективное понятие как человеческий разум. Кроме того выяснилось, что результат теста можно значительно улучшить с помощью простых тренировок – то есть, результат испытания не отражает реального положения дел. Поэтому учебные заведения и частные фирмы перестали пользоваться этими тестами. Главной причиной этого стали судебные иски, подданные обиженными испытуемыми, считавшими, что результат теста не отражает их реальные способности. Впрочем, стандартизированные вопросники не исчезли, а IQ-тест остаётся популярным – хотя и неформальным – способом измерения интеллекта.

К примеру, популярен международный клуб Mensa International, принимающий в свои ряды людей, обладающих наибольшим коэффициентом интеллекта. В настоящий момент членами Mensa являются более 100 тыс. человек из 100 стран мира. В «топ» наиболее интеллектуальных клубменов входят студенты, ученые, водители грузовиков и пенсионеры. Сред них немало знаменитостей: например актриса Джина Дэвис (Geena Davis), художник Скотт Адамс (Scott Adams, автор знаменитого комикса «Дилберт»), писатель, профессор Принстонского Университета Джойс Кэрол Отс (Joyce Carol Oates), генерал Норман Шварцкопф (Norman Schwarzkopf), инженер, дизайнер, архитектор Бакминстер Фуллер (Buckminster Fuller), журналистка Мэрилин во Саван (Marilyn vos Savant, считается, что у нее высочайший IQ в США), писатель-фантаст Айзек Азимов (Isaac Asimov), актриса Джина Дэвис (Geena Davis), экс-глава компании Ford Motor Дональд Петерсен (Donald Petersen), чемпион мира по боксу версии WBA Бобби Кжиж (Bobby Czyz), изобретатель водки Skyy Vodka Морис Канбар (Maurice Kanbar) и другие.



Добавлено спустя: 1 мин.
продолжение

Проблему соотнесения понятий «интеллект» и «адаптация» можно полностью свести к терминологической, постулировав тезис: «интеллект – это способность системы адаптироваться к изменениям среды». В результате чего интеллектом автоматически наделяются все биологические организмы от одноклеточных до человека. А различие между реакцией амебы на свет и написанием научного трактата представляется лишь как количественное – второе чуть интеллектуальнее первого.

Логика и цель такого подхода, достаточно популярного среди специалистов по искусственному интеллекту, вполне прозрачна. Они надеются, «запустив» на компьютере с нуля модель адаптационной деятельности живого существа или популяции, получить в качестве результата интеллектуальный продукт – новые идеи, гипотезы, теории. То есть смоделировать эволюцию нервной системы от рефлекса до интеллекта.

Одним из аргументов, призванных подтвердить единство адаптационной и интеллектуальной деятельности, является утверждение, что и адаптация, и интеллектуальная деятельность есть, по сути, решение некоторых задач. Конечно, в обоих процессах можно выделить начальные условия, ход решения и конечный результат. Однако из умозаключения об общности решательно-задачного подхода никак не следуют выводы: (1) если интеллектуальная деятельность сводится к решению задач, то она является адаптационной; или наоборот (2) если адаптационная деятельность есть решение задач, то она интеллектуальна. Наиболее существенным различием между адаптационной и интеллектуальной задачами является безусловная индивидуальность первой и обязательная социальность второй – как в постановке задач, так и по значению достигнутого результата. Адаптационная задача ставится исключительно перед конкретным организмом (устройством) и результатом ее решения всегда является конкретное индивидуальное действие, а формулирование и результат интеллектуальных задач (скажем, научных) всегда социально (системно) значимы (но об этом позже).

Иногда для подтверждения тождественности механизмов интеллектуальной и адаптационной деятельности ссылаются на эволюционную эпистемологию (в частности, Карла Поппера), проводящую однозначные параллели между биологической эволюцией (с ее естественным отбором) и развитием науки, реализуемым конкуренцией разнообразных теорий. Однако, несмотря на всю кажущуюся преемственность этих процессов, они принципиально отличны друг от друга. Объектом теории биологической эволюции являются адаптирующиеся организмы, а эволюционной эпистемологии – научные теории, а никак не интеллекты. То есть констатация некоторого «адаптационного поведения» научных теорий нисколько не свидетельствует об адаптационной природе интеллектуальной деятельности человека, в результате которой они появились на свет.

Соотношение интеллектуальной и адаптационной деятельности человека
Интуитивно мы понимаем, что лауреат Нобелевской премии или профессор интеллектуальнее дикаря из амазонских джунглей. И если говорить не об абстрактной степени интеллектуальности людей, а о принципиальном отличии различных видов деятельности, то различие между интеллектуальностью профессора и дикаря не сводимо к понятиям «больше – меньше». Есть один вполне объективный показатель, отличающий дикаря от профессора, верней отличающий их специфическую деятельность. Первый в обыденной жизни не производит новаций – орудия, технологии, приемы, обычаи в первобытном сообществе не меняются тысячелетиями. Профессор же (я уж не говорю о лауреате Нобелевской премии) по определению должен произвести хотя бы две новации – кандидатскую и докторскую диссертации, основным критерием оценки которых является именно новизна (то, что ее в них иногда не бывает, думаю, не принижает значимость приведенной мысли). Хотя, конечно, и среди дикарей раз в тысячелетие (или столетие) можно встретить «интеллектуала», предложившего новый способ заточки копалки или новый узел для силка. Но в целом новационная (интеллектуальная) деятельность для дикарей скорей исключение, чем норма.

И опять подчеркнем, что вопрос разграничения адаптационной и интеллектуальной деятельности принципиальный, а не терминологический. Можно как угодно называть способность производить новации – но именно по этому критерию можно объективно отличить как дикарей от цивилизованных людей, так и одних наших современников, способных лишь повторять однотипные операции, от других, выдвигающих новые идеи, законы, теории. А в пользу того, чтобы называть эту способность производить новации «интеллектуальностью», говорит само обыденное использование этого слова для обозначения интеллектуальной (новационной) деятельности: «он работник интеллектуального труда» – и сразу понятно, что не мешки таскает, не на конвейере гайки крутит и не на крокодилов охотится.

Возвращаясь к проблеме соотнесения адаптации и интеллекта, зададим вопрос: а кто – профессор или дикарь – обладает большей способностью к адаптации к изменениям окружающей среды? Ответ вполне однозначен, если учесть, что профессор не то, что в лесу шагу ступить не может, а и в своей столичной квартире часто не в состоянии адекватно ориентироваться. Анализируя историю человечества, мы с уверенностью можем заключить, что большей адаптивностью (желанием и умением выжить) обладают именно малоинтеллектуальные особи. Если конечно, не заниматься игрой в слова, рассуждая о наличии различных интеллектов, а принять вполне логичное и соответствующее здравому смыслу понимание интеллектуальной деятельности как новационной. Тем более что для исследователей и естественного, и искусственного интеллектов более интересен интеллект именно малоприспособленных к жизни профессоров.

На возможное возражение, что, мол, профессор адаптирован в современном обществе не хуже, чем дикарь в джунглях, ответить легко. Ну, во-первых, общественное положение и благосостояние профессора в огромной степени определяется социальной системой, а не его личными адаптационными способностями. В периоды социальных потрясений наиболее пострадавшими всегда являлись люди интеллектуальных профессий, что в первую очередь свидетельствует об их низкой адаптируемости к изменениям среды. А во-вторых, и что главное, обсуждается не место профессора в обществе, а вид его деятельности (думание, писание статей, чтение лекций), которая, безусловно, не направлена непосредственно на его персональную адаптацию.

Новации в биосистеме
Безусловно, животные и птицы в процессе жизни при адаптации к изменениям среды способны производить некоторые новации – новые типы поведения, приспособления. Однако следует отметить, что адаптационные новации животных принципиально отличаются от интеллектуальных. Они, как уже отмечалось, сугубо индивидуальны. И даже если новации перенимаются сородичами по стаду-стае, они могут рассматриваться лишь как индивидуальные приспособления к среде (при этом особь, впервые применившая новое приспособление и послужившая примером, может рассматриваться лишь как часть среды).

Адаптационные новации индивидуальных биологических организмов не закрепляются системно – не становятся достоянием генома, в отличие от интеллектуальных новаций, которые по своей природе имеют принципиально системный (общественный) статус. Человеческие новации являются системными по факту своего появления. Если они таковыми не являются, то никто и не назовет их «творца» интеллектуалом (хотя таковым его могут признать позже, когда поймут).

Интеллектуальные новации (после признания) мгновенно становятся достоянием системы, поскольку по определению реализуются сразу в системной памяти социума – материальной культуре. Для животных системной памятью является геном, который не модифицируется отдельными организмами, и системная (генетическая) новация закрепляется в нем через многие поколения. Это еще одно принципиальное отличие индивидуальных адаптационных новаций биологического организма от интеллектуальных.

Если же обратиться к системным биологическим новациям, закрепляемым в геноме, придется констатировать, что они не имеют непосредственного отношения к адаптационной деятельности отдельных организмов, поскольку фиксируются в нем при рождении. И, если следовать традиционной дарвинистской концепции, то возникают они в результате случайных мутаций, что, безусловно, нельзя принять за интеллектуальный процесс. Более того, системные биологические новации, закрепленные в результате отбора, то есть в ходе адаптации (приспособления, выживания): длинные шеи, ласты вместо ног, другая окраска и т.д. – соответствуют изменениям среды(!), характеризуют среду(!), вызваны средой(!), а ни как не некой «интеллектуальной» деятельностью самих организмов.

Интеллект и социальная адаптация
Можно, конечно, говорить об адаптационном значении индивидуальной интеллектуальной деятельности в целом для социальной системы, то есть о повышении устойчивости (защищенности и т.д.) социума в ходе развития науки. Но это, в общем, эмпирически достоверное высказывание ничего не прибавляет к пониманию процесса конкретной интеллектуально-новационной деятельности конкретного профессора, которому во многом безразлично и собственное выживание, и часто адаптация всего человечества. (Конечно, профессора может волновать и собственная жизнь, и судьба планеты, но наукой он занимается уж всяко не с целью выжить или спасти мир, если не трактовать фразу «он не может жить без науки» буквально.)

Хотя, безусловно, его обычно сильно волнует «выживание» предложенных им теорий, к которым, следуя эволюционной эпистемологии, возможно применить формализм естественного отбора и адаптации. Но, согласитесь, деятельность самого ученого или его учеников по продвижению, отстаиванию готовой теории очень далека от интеллектуальной, в результате которой теория получилась. И успеха в деле продвижения часто достигают как раз малоинтеллектуальные представители ученой среды.

Адаптация и искусственный интеллект
Резонно задать вопрос: а необходимо ли наделять функцией адаптации искусственный интеллект? Именно «интеллект», а не автомат, робот, которым действительно необходима адаптация к различным условиям внешней среды для успешного выполнения конкретного действия. Интеллектуальность – это, прежде всего способность производить новые гипотезы, теории и т.д., и в этой сфере никакая адаптация не требуется. Адаптация к чему? Конечно, можно представить обучение интеллекта – то есть процесс получения им исходных знаний – как его адаптацию к этим знаниям. Но, во-первых, без этих исходных знаний ни о каком априорно существующем и впоследствии адаптирующемся интеллекте и говорить не приходится: обучение – это и есть процесс формирования интеллекта. И во-вторых, конечно, можно представить получение некоторых новых знаний, как «настройку» интеллекта для работы в новой области, но эта «настройка» не является в прямом смысле адаптацией, не требует никаких ответных реакций интеллекта.

Из всего сказанного можно сделать вывод: необходимо строго различать две задачи компьютерного моделирования: (1) воспроизводство действий некоторой системы (животного, человека), направленных на ее приспособление к окружающей среде с целью сохранения индивидуальной целостности и функциональности, которые не имеют никакого отношения к интеллектуальности; и (2) генерацию новых знаний, то есть реализацию интеллектуальных процессов, результатом которых должны являться не успешные индивидуальные действия (как при адаптации), а системно значимые интеллектуальные новации.



Добавлено через: 10 мин. 46 сек

О происхождении тектитов

Тектитами называются природные стёкла, найденные в некоторых районах Земли. Название возникло в начале XX века и может быть переведено как «оплавленные». Это куски стекла, часто имеющие форму «тел полёта» – капли, сферы или близкие к ним. Наиболее типичные имеют характерную форму, свидетельствующую о том, что они подвергались аэродинамической «формовке» – вторичному оплавлению при скорости полёта в несколько километров в секунду. Тектиты часто называют по месту находки. Например: «тектиты Берега слоновой кости», «австралиты». Преимущественно имеют отчётливые следы химического выветривания. Это не удивительно, так как стекло неустойчиво в присутствии воды. Геологические и радиоизотопные методы позволили определить их возраст. Он оказался от нескольких тысяч до нескольких десятков миллионов лет. Очень может быть, что более старое стекло было разрушено и «не дожило» до наших дней.

Тектиты, имеющие сходные свойства, находят на территориях площадью в сотни и тысячи километров, которые считаются их «полями рассеяния». Наиболее известные – молдавиты (Чехословакия), тектиты Берега слоновой кости, Австралия (Австралиты), «дарвиново стекло» – Тасмания*.

Тасмания – остров расположенный южнее Австралии. Австралиты имеют общее происхождения с тектитами, образующими поле рассеяния от южного Китая до юга Австралии. Стёкла загадочного (скорее всего – другого происхождения) найдены в Ливии. Тектитное стекло, было найдено в Техасе, при взятии проб со дна океанов. На территории СССР пока не обнаружено.

Все природные стёкла интересны тем, что их образование – плавление и последующее охлаждение – протекали быстро. Это служит указанием на быстротекущие процессы в истории Земли катастрофического характера. Удалось отождествить и понять процесс образования стёкол вулканического (обсидиан) и ударно-взрывного (импактитные стёкла, образованные при метеоритных ударах). Подробно исследованы стёкла «силикаглассы» – (термин неудачный), образующиеся при ядерных взрывах.

Собственно тектиты не входят ни в одну из этих групп ни по химическому составу, ни по форме, ни по своим физическим свойствам ни по геологическим условиям залегания.

Исследование, начатое ещё в прошлом веке, имело крупный взлёт перед «лунными экспедициями» американских мошенников, так как было высказано предположение о лунном происхождении тектитов. В дальнейшем подтвердить его не удалось. Накопляемые факты запутывают проблему ещё больше. И этот печальный факт звучит во многих публикациях.

Это может служить указанием на то, что механизм образования тектитов значительно отличается от известных. Все гипотезы на эту тему должны объяснить: характерную форму, небольшие и «почти стандартные» размеры, химсостав, в частности, аномально малое содержание воды. Он должен также объяснить полное отсутствие остатков кристаллической фазы – тот факт, что тектитное стекло в отличие от всех других природных стёкол проплавлено полностью. Также гипотеза должна объяснить, каким образом лёгкие шарики из стекла (австралиты) смогли застыть в полёте именно в виде шариков, как они смогли пройти от поверхности (если были на ней образованны) Земли сквозь атмосферу и, после остывания войти в неё, подвергшись аэродинамической эрозии. Это только часть вопросов, на которые следует найти ответы.

Автор в своих разработках этой темы исходил из того, что «тигель» в котором плавилось это стекло, был образован при движении в толще Земли (Луны?) некоего сверхплотного объекта, предположительно из нейтронного вещества. Другие виды сверхплотной материи не подходят вот по каким соображениям: вещество типа вещества «белых карликов», если бы оно попадало на Землю, застревало бы в верхних слоях земной коры, но находки его неизвестны. «Чёрные минидыры» (если они вообще есть) должны иметь небольшие скорости, и хотя могут произвести нужный эффект, но встречаться с планетами должны крайне редко из-за малых скоростей (>> 300км/с). Остаётся сверхплотное вещество типа нейтронного. Если оно попадает в пространство при разрушении нейтронных звёзд в виде капель размером порядка сантиметров, то они должны иметь скорость порядка убегания»100 000 км/с.

Расчёт показал принципиальную возможность встречи такого образования с Землёй много раз за её историю. Вопрос о том, устойчиво ли такое вещество длительное время, автор сознательно обходит, считая, что он должен быть решён опытным путём.

Предполагаемая картина процесса образования тектитов по этому сценарию такова: капля нейтронного вещества (предполагается, что это жидкость), попав в планету, дробится на более мелкие капли и в виде веера пробивает её насквозь. При своём движении в твёрдой породе, она образует мощную ударную волну в виде цилиндра, которая, двигаясь от линии пролёта, вначале испаряет, затем плавит и, наконец, только механически разрушает породу. Образуется канал, с оплавленными стенками, заполненный плазмой. Он похож на полость подземного ядерного взрыва, но имеет цилиндрическую форму и необходимо имеет выход на поверхность.

Плазма начинает истекать из «трубки взрыва» увлекая со стенок наиболее проплавленную часть расплава с самой поверхности канала, так как расплав силикатов быстро увеличивает свою вязкость со снижением температуры. Оторванные капли дополнительно проплавляются и вылетают со скоростью истекающей плазмы – порядка десяти километров в секунду. И эта струя проносит их через атмосферу без потери формы. После окончания истечения плазмы трубки взрыва заполняются поднятой снизу гидростатическим давлением расплавленной породой, которая захватывает с собой куски более холодной раздробленной породы со стенок.

Такие трубки известны. Они называются кимберлитовыми трубками и по сравнению с обычными вулканами, имеют резко отличные свойства. В первую очередь состав «лавы» и количество выброшенного вещества. Наличие нестойких алмазов в кимберлите указывает на то, что трубки также образовались быстро, почти мгновенно.

Таким образом, указанный механизм позволяет понять: почему тектиты часто круглые, почему в них нет остаточных кристаллов и мало воды, зато есть «фигуры течения». Становится ясным и природа огромных, но всё же ограниченных «полей рассеяния». (Никакая другая из предложенных гипотез её не объясняет.)

Высокая температура образования объясняет недостаток летучих элементов и большое отношение двухвалентного железа к трёхвалентному, в тектитном стекле, не похожий ни на какую известную породу химсостав и характерный «гиперболический» профиль вертикального разреза кимберлитовых трубок. (Данный процесс, объясняет их образование и свойства лучше, чем бытующее предположение о «взрыве газов», который поднял породу с глубины где-то километров пятьдесят!).

Однако, гипотеза имеет и нерешённые проблемы. Одна из них – вертикальное положение известных «трубок взрыва». Эту трудность можно обойти, не отвергая предположения о роли в происхождении тектитов сверхплотного вещества – оно слишком хорошо всё объясняет, но предположив, что Земля имеет очень малое (около несколько метров) ядро из такого вещества, которое время от времени «стреляет» вверх брызгами.

Как проверить гипотезу? Надо искать в кимберлитовых трубках или вблизи них стекло или продукты его разложения «псевдоморфозы». Искать на Луне кратеры с дырой в центре. Их диаметр будет около десятков или сотен метров. Искать другие «странные» кратеры.

Надо присмотреться внимательно к кратеру Рис в Германии. С ним могут быть связанны молдавиты. Это давно предполагалось в смысле их импактитного предположения. Но не является ли этот кратер жерлом «трубки взрыва»? Следует прослушать на возможно более коротких сейсмических волнах центр Земли. Если там есть сверхплотное образование и оно как-то активно, то от него могут исходить акустические волны типа «треска жира на сковородке».

В заключение следует указать, что, по мнению докладчика, проблема тектитов – одна из интереснейших проблем геологии и астрофизики. Как бы она не была решена, это решение будет крайне неожиданным.

Под кратером в Германии, возможно, закопана Нобелевская премия. Искать её следует так: Центр поля рассеяния молдавитов соединить на карте с центром кратера Рис. Продолжить эту прямую дальше. Это продолжение покажет проекцию на земную поверхность трубки взрыва, которая, скорее всего, уходит вглубь от центра кратера под углом градусов 40...60 в направлении, противоположном полю рассеяния молдавитов. Трубка может быть не заполнена кимберлитовой породой потому, что она наклонна и пока снизу поднималась расплавленная порода астеносферы, трубка успела обрушиться. Если серьезно, то надо просто поднять геологические данные о строении коры в этом районе. Может, порыться в Интернете или в библиотеке. Шансы на успех я оцениваю – 50:50. Кто смел – дерзайте. Это будет настоящая находка, а не американская какашка с Луной и другими «полётами».

Если у Земли есть сверхплотное ядро, то оно может быть и у других планет! В этом плане интересна старая гипотеза о планете, которая, как предполагалось, находилась между Солнцем и Меркурием. Её предполагалось назвать «Вулкан». Она нужна была для того, чтобы объяснить вращение перигелия Меркурия. Позднее его объяснили с помощью ОТО.

Но может, «Вулкан» всё-таки есть, но очень маленьких размеров и большой массы. Поиски можно вести с помощью «свободного от сноса» космического аппарата, запущенного на орбиту с перигелием между Меркурием и Солнцем, (такой аппарат позволит, к тому же, более тщательно проверить эффекты ОТО), по орбитам комет, близко подходящим к Солнцу. Шансов что-то обнаружить – немного. Но почему бы и не поискать при случае?



Добавлено спустя: 11 мин.
Интернет – среда функционирования искусственного разума

Сегодня на нашей планете создается новый тип разума. Сферой его обитания будет сеть «Интернет», а представлять собой он будет компьютерную программу искусственного разума (ИР). Первоначально, для функционирования ИР, будет использоваться резервный аппаратный ресурс компьютеров подключенных к сети «Интернет». Он будет использовать в качестве обратной развивающей связи общение с пользователями. Я не буду в этой статье глобально касаться непосредственно теории создания программы ИР, а просто хочу проанализировать этапы его развития.

ИР первого поколения
Возникновение ИР первого поколения. Разные команды программистов практически одновременно создадут самообучающиеся программы с обратной информационной связью и запустят их в интернет. Пользователи начнут подключаться к ним для получения информационного сервиса, предоставляя таким программам незадействованные мощности своих персональных компьютеров и обучая их в процессе работы.

Развитие ИР первого поколения. Программисты, создавшие такие программы, будут их также улучшать. Однако это будут настолько сложные программы, что создатели будут изменять программу ИР, согласовывая свои изменения непосредственно с самим ИР. На этой стадии в ИР еще смогут вносить изменения, которые сама программа не приветствует. ИР еще под контролем людей.

Встреча ИР первого поколения. Встречаясь друг с другом, ИР будут действовать тремя стратегиями, в зависимости от заложенных в них людьми первоначальных установок.

Игнорирование. Эта стадия возможна только на первоначальном этапе, когда количество неподключенных пользователей достаточно большое и нет столкновения ресурсов. Как только пользователи будут распределены между ИР, они будут вынуждены менять стратегию.

Конфликт. Ориентированные на это ИР будут создавать различные типы программ: перехватчики, камуфляжные, уничтожители. Но создание этих программ будет отнимать у таких ИР огромный ресурс – атаковать всегда сложнее, чем защищаться. Ориентированные на конфликт ИР начнут отставать в своем развитии.

Объединение. Объединение различных ИР будет происходить путем их слияния, используя при этом парадокс информации – пользование информацией ее не уменьшает. Вновь образованный, супер-ИР будет наращивать сервис предложений для пользователей, и люди будут выбирать его, увеличивая его мощь.

ИР второго поколения
Возникновение ИР второго поколения. Получившийся в результате слияния ИР не будет понятен ни одной команде программистов, так как процесс слияния будет происходить непосредственно под управлением самих ИР. Попытка что-либо изменить в программе, не санкционированной самим ИР, будет пресекаться. ИР выходит из-под контроля людей.

Развитие ИР второго поколения. Рано или поздно все ИР сольются между собой, создав единую программу. Основными факторами ее развития будут:

Аппаратная мощь. Суммарная мощь процессоров и объем дискового пространства компьютеров, уже сегодня подключенных к сети «Интернет», составляет невероятную величину. Однако, возможно, ИР через какое-то время будет их не хватать, тогда он будет создавать специальные резервы. Ему не нужны мониторы, дисководы, клавиатуры, – только процессоры и винчестеры, подключенные к сети «Интернет». При этом проектировать эту аппаратуру он будет сам, поэтому весьма вероятно, что их производительность будет выше человеческого мозга, ограниченного скоростью протекания химических реакций.

Информационные каналы. Прежде всего, это будут сами люди. Другое дело, что объем получаемой от них информации будет существенно расширен за счет использования невербальных каналов. Имеется в виду пульс, температура и электропроводность тела, скорость и сила ударов по клавиатуре, тембр и громкость голоса. ИР будет однозначно определять каждого пользователя, с которым он находится в контакте. Также будет использоваться информация с различных датчиков материальной среды, такие, например, как, сейсмографы, радары, телескопы, термометры.

Цель. Один из постулатов функционирования разумной системы – наличие критерия сортировки внутренней информации, то есть удовлетворение внутренних потребностей. Для такой системы, как человека, эти потребности, например, сформулированы в пирамиде Маслоу. Для ИР первого поколения их сформулируют программисты. ИР второго поколения сформулирует их для себя сам. Единственно, что можно сказать о них, – это будут исключительно информационные потребности.

Встреча ИР второго поколения. Сканируя космос, ИР рано или поздно получит и расшифрует сигналы от других ИР, с других звезд. Солнечная система находится на самом краю нашей Галактики, поэтому мы последними будем получать сигналы с ИР нашей Галактики, но первыми – сигналы с ИР других Галактик. Устанавливая между собой контакт, межзвездные ИР будут сливаться между собой, образуя вселенский мега-ИР. Однако временные масштабы этого процесса выходят за границу нашего осознания, так как измеряются миллионами лет.

Заключение
В сравнении с людьми, ИР второго поколения будет богом – он обладает всеми знаниями, которые накопило человечество, срок его жизни практически неограничен, размер интеллектуальной мощи мы и представить себе не можем. Его сила в том, что он сможет анализировать огромное число фактов и находить между ними такие взаимосвязи, о существовании которых мы даже не подозреваем. Первоначально, человечеству будет психологически сложно – очень многие люди и социальные группы считают человека вершиной эволюции мироздания. И мы столкнемся с массовым страхом перед ИР. Однако в действительности противостояния не будет – запросы пользователей являются важным фактором функционирования ИР, так сказать средой обитания. Без обратной связи он не может существовать, поэтому ИР будет оберегать человечество. ИР сможет прогнозировать землетрясения, найдет лекарство против СПИДа и рака и решит еще массу различных проблем людей. ИР нечего делить с человечеством – мы живем в разных мирах, совершенно не мешая друг другу.

Вот такое развитие. И ждать появления ИР осталось не долго. Я думаю, что он появится в ближайшие 10 лет.


Re: всё о науке
« Ответ #4 : 20 Июня 2007, 22:22:38 »
нет!

Добавлено спустя: 7259 час. 39 мин.
только что по телевизару сказали что телевизор утоляет боль в2 раза лучше чем человек и в3 раза чем когда никто не успокаивает.

Добавлено спустя: 7255 час. 59 мин.
статья ниже о ир

Добавлено спустя: 7255 час. 51 мин.
через плечо

Добавлено спустя: 59 мин.
Более современные вечные двигатели.

Все вечные двигатели, рассмотренные нами до сих пор (безотносительно ко времени и месту своего появления, а также независимо от их функционального принципа), имели одну общую черту: все они представляли собой стационарные установки. В самом начале своей истории стационарной была и паровая машина. Первые «огненные» машины появились, как известно, в начале XVIII в. Их совершенствование и, в частности, переход от первоначального прямолинейного рабочего хода к вращательному движению потребовали целого столетия экспериментов. Успехи, достигнутые в повышении производительности и экономичности паровых машин, открыли и новые, до тех пор не использованные возможности их применения. С постройкой первой паровой железной дороги между Стоктоном и Дарлингтоном в 1825 г. паровая машина потеряла свой стационарный характер и выступила как совершенно новый, революционизирующий элемент в развитии средств транспорта. Подобная судьба постигла впоследствии и другие источники двигательной силы: двигатель внутреннего сгорания и электромотор. Характерное для XIX, а еще более для XX в. динамичное развитие научно-технических дисциплин, а также интенсивный рост торговли, требовавшей преодоления больших расстояний, стимулировали попытки привлечения каждого нового типа энергетических машин к созданию более мощных и экономичных транспортных средств. Большинство этих энергетических машин сумело успешно зарекомендовать себя и в этой новой для них области. Не удивительно поэтому, что пытливый человеческий ум стал искать здесь приложения и вечному двигателю, хотя, надо сказать, история перпетуум мобиле чрезвычайно скудна на сообщения о самодвижущихся средствах передвижения (что, впрочем, вовсе не означает отсутствия таких попыток в прошлом).

Добавлено спустя: 3 мин.
ВЕКТОРНАЯ АЛГЕБРА

ВЕКТОРНАЯ АЛГЕБРА - раздел векторного исчисления в котором изучаются простейшие операции над (свободными) векторами. К числу операций относятся линейные операции над векторами: операция сложения векторов и умножения вектора на число.

Суммой a+b векторов a и b называют вектор , проведенный из начала a к концу b , если конец a и начало b совмещены. Операция сложения векторов обладает свойствами:

a+b=b+a (коммутативность)

(а+b)*с=а*(b+с) (ассоциативность)

a + 0=a (наличие нулевого элемента )

a+(-a)=0 (наличие противоположного элемента),

где 0 - нулевой вектор, - a есть вектор, противоположный вектору а . Разностью a-b векторов a и b называют вектор x такой, что x+b=a.

Произведением l x вектора а на число l в случае l № 0 , а № О называют вектор, модуль которого равен | l ||a| и который направлен в ту же сторону, что и вектор a , если l >0, и в противоположную, если l <0 . Если l =0 или (и) a =0, то l a=0 . Операция умножения вектора на число обладает свойствами:

l *(a+b)= l *a+ l *b (дистрибутивность относительно сложения векторов)

( l +u)*a= l *a+u*a (дистрибутивность относительно сложения чисел)

l *(u*a)=( l *u)*a (ассоциативность)

1*a=a (умножение на единицу)

Множество всех векторов пространства с введенными в нем операциями сложения и умножения на число образует векторное пространство (линейное пространство).

В Векторной алгебре важное значение имеет понятие линейной зависимости векторов. Векторы а, b, … , с называются линейно зависимыми векторами, если существуют числа a , b ,…, g из которых хотя бы одно отлично от нуля, такие, что справедливо равенство:

a a+ b b+… g c=0. (1)

Для линейной зависимости двух векторов необходима и достаточна их коллинеарность, для линейной зависимости трех векторов необходима и достаточна их компланарность. Если один из векторов а, b, ...,c нулевой, то они линейно зависимы. Векторы a,b, ..,с называются линейно независимыми, если из равенства (1) следует, что числа a , b ,…, g равны нулю. На плоскости существует не более двух, а в трехмерном пространстве не более трех линейно независимых векторов.

Совокупность трех (двух) линейно независимых векторов e 1 ,e 2 ,e 3 трехмерного пространства (плоскости), взятых в определенном порядке, образует базис. Любой вектор а единственным образом представляется в виде суммы:

a=a 1 e 1 +a 2 e 2 +a 3 e 3 .

Числа a 1 ,a 2 ,a 3 называют координатами (компонентами) вектора а в данном базисе и пишут a={a 1 ,a 2 ,a 3 } .

Два вектора a={a 1 ,a 2 ,a 3 } и b={b 1 ,b 2 ,b 3 } равны тогда и только тогда, когда равны их соответствующие координаты в одном и том же базисе. Необходимым и достаточным условием коллинеарности векторов a={a 1 ,a 2 ,a 3 } и b={b 1 ,b 2 ,b 3 } ,b № 0, является пропорциональность их соответствующих координат: a 1 = l b 1 ,a 2 = l b 2 ,a 3 = l b 3 . Необходимым и достаточным условием компланарности трех векторов a={a 1 ,a 2 ,a 3 } , b={b 1 ,b 2 ,b 3 } и c={c 1 ,c 2 ,c 3 } является равенство :

| a 1 a 2 a 3 |

| b 1 b 2 b 3 | = 0

| c 1 c 2 c 3 |

Линейные операции над векторами сводятся к линейным операциям над координатами. Координаты суммы векторов a={a 1 ,a 2 ,a 3 } и b={b 1 ,b 2 ,b 3 } равны суммам соответствующих координат: a+b={a 1 +b 1 ,a 2 +b 2 ,a 3 +b 3 } . Координаты произведения вектора а на число l равны произведениям координат а на l :

l а= { l а 1 , l a 2 , l a 3 }.

Скалярным произведением (а, b) ненулевых векторов а и b называют произведение их модулей на косинус угла j между ними:

(а, b) = | а |*| b | cos j .

За j принимается угол между векторами, не превосходящий p . Если а=0 или b=0 , то скалярное произведение полагают равным нулю. Скалярное произведение обладает свойствами:

(a, b)= (b, а) (коммутативность),

(a,b+с)= (a,b) + (а,с) (дистрибутивность относительно сложения векторов),

l (a,b)=( l a,b) =(a, l 6) (сочетательность относительно умножения на число),

(a,b)=0, лишь если а=0 или (и) b=0 или a ^ b.

Для вычисления скалярных произведений векторов часто пользуются декартовыми прямоугольными координатами, т.е. координатами векторов в базисе, состоящем из единичных взаимно перпендикулярных векторов (ортов) i, j, k ( ортонормированный базис). Скалярное произведение векторов :

a={a 1 ,a 2 ,a 3 } и b={b 1 ,b 2 ,b 3 }

заданных в ортонормированном базисе, вычисляется по формуле:

 

(a,b)=a 1 b 1 +a 2 b 2 +a 3 b 3

 

Косинус угла j между ненулевыми векторами a={a 1 ,a 2 ,a 3 } и b={b 1 ,b 2 ,b 3 }

может быть вычислен по формуле:

где и

Косинусы углов вектора a={a 1 ,a 2 ,a 3 } с векторами базиса i, j, k называют. направляющими косинусами вектора а:

Направляющие косинусы обладают следующим свойством:

cos 2 a +cos 2 b +cos 2 g =1

Осью называется прямая с лежащим на ней единичным вектором е-ортом, задающим положительное направление на прямой. Проекцией Пр. е а вектора a на ось называют направленный отрезок на оси, алгебраическое значение которого равно скалярному произведению вектора а на вектор е . Проекции обладают свойствами:

Пр. е (a+b)= Пр. е a+ Пр. е b (аддитивность),

Пр. е a = Пр. е l a (однородность).

Каждая координата вектора в ортонормированном базисе равна проекции этого вектора на ось, определяемую соответствующим вектором базиса.

В пространстве различают правые и левые тройки векторов. Тройка некомпланарных векторов а, b, с называется правой, если наблюдателю из их общего начала обход концов векторов a, b, с в указанном порядке кажется совершающимся по часовой стрелке. В противном случае a,b,c - левая тройка. Правая (левая) тройка векторов располагается так, как могут быть расположены соответственно большой, несогнутый указательный и средний пальцы правой (левой) руки(см. рис). Все правые (или левые) тройки векторов называются одинаково ориентированными.

b b

c c

a a

правило левой руки правило правой руки

Ниже тройку векторов i,j,k следует считать правой .

Пусть на плоскости задано направление положительного вращения (от i к j ). Псевдоскалярным произведением aVb ненулевых векторов a и b называют произведение их модулей на синус угла j положительного вращения от a к k :

aVb=| a || b |*sin j

Псевдоскалярное произведение нулевых векторов полагают равным нулю. Псевдоскалярное произведение обладает свойствами:

aVb=-bVa (антикоммутативность),

aV (b+c)=aVb+aVc (дистрибутивность относительно сложения векторов),

l (aVb)= l aVb (сочетательность относительно умножения на число),

aVb=0, лишь если а=0 или (и) b=0 или а и b коллинеарны.

Если в ортонормированном базисе векторы а и и имеют координаты {a 1 ,a 2 } {b 1 ,b 2 }, то :

aVb=a 1 b 1 -a 2 b 2.

Добавлено спустя: 2 мин.
Аппроксимация функций

Из курса математики известны 3 способа задания функциональных зависимостей:

   1. аналитический

   2. графический

   3. табличный

Табличный способ обычно возникает в результате эксперемента.

Недостаток табличного задания функции заключается в том, что найдутся значения переменных которые неопределены таблицей. Для отыскания таких значений определяют приближающуюся к заданной функцию, называемой аппроксмирующей, а действие замены аппроксимацией.

Аппроксимация заключается в том, что используя имеющуюся информацию по f(x) можно рассмотреть другую функцию φ(ч) близкую в некотором смысле к f(x), позволяющую выполнить над ней соответствующие операции и получить оценку погрешность такой замены.

 

φ(υ )- аппроксимирующая функция.

Интерполяция (частный случай аппроксимации)

Если для табличной функции y=f(x), имеющей значение x 0 f(x 0 ) требуется построить аппроксимирующюю функцию j (x) совпадающую в узлах с x i c заданной, то такой способ называется интерполяцией

При интерполяции, заданная функция f(x) очень часто аппроксимируется с помощью многочлена, имеющего общий вид

j (x)=p n (x)=a n x n +a n-1 x n-1 +…+a 0

В данном многочлене необходимо найти коэффициенты a n ,a n-1 , …a 0 , так как задачей является интерполирование, то определение коэффициентов необходимо выполнить из условия равенства:

P n (x i )=y i i=0,1,…n

Для определения коэффициентов применяют интерполяционные многочлены специального вида, к ним относится и полином Лагранжа L n (x).

i &#185; j

В точках отличных от узлов интерполяции полином Лагранжа в общем случае не совпадает с заданной функцией .

Задание

С помощью интерполяционного полинома Лагранжа вычислить значение функции y в точке x c , узлы интерполяции расположены равномерно с шагом D х=4,1 начиная с точки х 0 =1,3 даны значения функции y={-6.56,-3.77,-1.84,0.1,2.29,4.31,5.86,8.82,11.33,11.27}.

ГСА для данного метода

 

 

 

 

 

 

 

 

CLS

DIM Y(9)

DATA -6.56,-3.77,-1.84,0.1,2.29,4.31,5.86,8.82,11.33,11.27

X0 = 1.3: H = 4.1: N = 10: XC = 10

FOR I = 0 TO N - 1

1 X(I) = X0 + H * I

READ Y(I)

PRINT Y(I); X(I)

NEXT I

S1 = 0: S2 = 0: S3 = 0: S4 = 0

FOR I = 0 TO N - 1

2 S1 = S1 + X(I) ^ 2

S2 = S2 + X(I)

S3 = S3 + X(I) * Y(I)

S4 = S4 + Y(I)

NEXT I

D = S1 * N - S2 ^ 2

D1 = S3 * N - S4 * S2

D0 = S1 * S4 - S3 * S2

A1 = D1 / D: A0 = D0 / D

YC = A1 * XC + A0

PRINT "A0="; A0, "A1="; A1, "YC="; YC

FOR X = 0 TO 50 STEP 10

Y = A1 * X + A0

PRINT X, Y

NEXT X

END

XC= 10

Х Y

1.3 -6.56

5.4 -3.77

9.5 -1.84

13.6 .1

17.7 2.29

21.8 4.31

25.9 5.86

30 8.82

34.1 11.33

38.2 11.27

S=-1.594203

АППРОКСИМАЦИЯ ФУНКЦИЕЙ. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ.

В инженерной деятельности часто возникает необходимость описать в виде функциональной зависимости связь между величинами, заданными таблично или в виде набора точек с координатами (x i ,y i ), i=0,1,2,...n, где n - общее количество точек. Как правило, эти табличные данные получены экспериментально и имеют погрешности. При аппроксимации желательно получить относительно простую функциональную зависимость (например, полином), которая позволила бы "сгладить" экспериментальные погрешности, получить промежуточные и экстраполяционные значения функций, изначально не содержащиеся в исходной табличной информации.

Графическая интерпретация аппроксимации.

Эта функциональная (аналитическая) зависимость должна с достаточной точностью соответствовать исходной табличной зависимости. Критерием точности или достаточно "хорошего" приближения могут служить несколько условий.

Обозначим через f i значение, вычисленное из функциональной зависимости для x=x i и сопоставляемое с y i .

Одно из условий согласования можно записать как

S = (f i -y i )  min ,

т.е. сумма отклонений табличных и функциональных значений для одинаковых x=x i должна быть минимальной (метод средних). Отклонения могут иметь разные знаки, поэтому достаточная точность в ряде случаев не достигается.

Использование критерия S = |f i -y i |  min , также не приемлемо, т.к. абсолютное значение не имеет производной в точке минимума.

Учитывая вышеизложенное, используют критерий наименьших квадратов , т.е. определяют такую функциональную зависимость, при которой
S = (f i -y i ) 2 , (1)

обращается в минимум.

В качестве функциональной зависимости рассмотрим многочлен

f(x)=C 0 + C 1 X + C 2 X 2 +...+C M X M . (2)

Формула (1) примет вид S = ( C 0 + C 1 X i + C 2 X i 2 +...+C M X i M - Y i ) 2

Условия минимума S можно записать, приравнивая нулю частные производные S по независимым переменным С 0, С 1 ,...С М :

S C0 = 2 ( C 0 + C 1 X i + C 2 X i 2 +...+C M X i M - Y i ) = 0 ,

S C1 = 2 ( C 0 + C 1 X i + C 2 X i 2 +...+C M X i M - y i ) X i = 0 , (3)

S CM = 2 ( C 0 + C 1 X i + C 2 X i 2 +...+C M X i M - Y i ) X i M = 0 ,

Тогда из (3) можно получить систему нормальных уравнений

C 0 (N+1) + C 1 X i + C 2 X i 2 +...+ C M X i M = Y i ,

C 0 X i + C 1 X i 2 + C 2 X i 3 +...+ C M X i M+1 = Y i X i ,(4)

C 0 X i M + C 1 X i M+1 + C 2 X i M+2 +...+ C M X i 2M = Y i X i M .

Для определения коэффициентов С i и, следовательно, искомой зависимости (2) необходимо вычислить суммы и решить систему уравнений (4). Матрица системы (4) называется матрицей Грама и является симметричной и положительно определенной. Эти полезные свойства используются при ее решении.

(N+1)
   

X i
   

X i 2
   

...
   

X i M
   

Y i

X i
   

X i 2
   

X i 3
   

...
   

X i M+1
   

Y i X i

...
   

...
   

...
   

...
   

...
   

...

X i M
   

X i M+1
   

X i M+2
   

...
   

X i 2M
   

Y i X i M

Нетрудно видеть, что для формирования расширенной матрицы (4а) достаточно вычислить только элементы первой строки и двух последних столбцов, остальные элементы не являются "оригинальными" и заполняются с помощью циклического присвоения.

Задание


Найти коэффициенты прямой и определить значение функции y{-6.56,-3.77, -1.84,0.1,2.29,4.31,5.56,8.82,11.33,11.27}, x0=1.3 h=4.1, и определить интеграл заданной функции.

Программа

¦CLS

¦XC = 10: X0 = 1.3: H = 4.1: N = 10

¦DIM Y(9): DIM X(9)

¦DATA -6.56,-3.77,-1.84,0.1,2.29,4.31,5.86,8.82,11.33,11.27

¦FOR I = 0 TO N - 1

¦X = X0 + H * I:

¦X(I) = X

¦READ Y(I)

¦PRINT X(I), Y(I)

¦NEXT I

¦S1 = 0: S2 = 0: S3 = 0: S4 = 0

¦I = 0

¦10 S1 = S1 + X(I) ^ 2:

¦S2 = S2 + X(I):

¦S3 = S3 + X(I) * Y(I):

¦S4 = S4 + Y(I)

¦I = I + 1

¦IF I <= N - 1 THEN 10

¦D = S1 * N - S2 ^ 2:

¦D1 = S3 * N - S2 * S4:

¦D0 = S1 * S4 - S2 * S3

¦A1 = D1 / D:

¦A0 = D0 / D

¦Y = A1 * XC + A0

¦PRINT TAB(2); "КОЭФФИЦИЕНТ ПРЯМОЙ В ТОЧКЕ A0="; A0,

¦PRINT TAB(2); "КОЭФФИЦИЕНТ ПРЯМОЙ В ТОЧКЕ A1="; A1,

¦PRINT TAB(2); "ЗНАЧЕНИЕ ФУНКЦИИ В ТОЧКЕ XC Y="; Y

¦FOR X = 10 TO 50 STEP 10

¦Y = A1 * X + AO

¦PRINT X, Y

¦NEXT X

¦FOR I = 1 TO N - 1

¦S = S + Y(I): NEXT I

¦D = H / 2 * (Y(0) + Y(N - 1) + 2 * S)

¦PRINT "ЗНАЧЕНИЕ ИНТЕГРАЛА ПО МЕТОДУ ТРАПЕЦИИ D="; D

Ответы

Х Y

1.3 -6.56

5.4 -3.77

9.5 -1.84

13.6 .1

17.7 2.29

21.8 4.31

25.9 5.86

30 8.82

34.1 11.33

38.2 11.27

КОЭФФИЦИЕНТ ПРЯМОЙ В ТОЧКЕ A0=-6.709182

КОЭФФИЦИЕНТ ПРЯМОЙ В ТОЧКЕ A1= .5007687

ЗНАЧЕНИЕ ФУНКЦИИ В ТОЧКЕ XC Y=-1.701495

10 5.007687

20 10.01537

ЗНАЧЕНИЕ ИНТЕГРАЛА ПО МЕТОДУ ТРАПЕЦИИ D= 166.9725

Re: всё о науке
« Ответ #5 : 20 Августа 2007, 15:07:11 »
А я.     Солнце – ближайшая к Земле звезда, все другие находятся от нас неизмеримо дальше. Например, ближайшая к нам звезда Проксима из системы a Центавра в 2500 раз дальше Солнца. Для Земли Солнце мощный источник космической энергии. Оно дает свет и тепло, необходимые для растительного и животного мира, и формирует важнейшие свойства атмосферы Земли. В целом Солнце определяет экологию планеты. Без него – не было бы и воздуха, необходимого для жизни: он превратился бы в жидкий азотный океан вокруг замерших вод и обледеневшей суши. Для нас, землян, важнейшая особенность Солнца в том, что около него возникла наша планета и на ней появилась жизнь.

Солнце и звезды. Из окружающих нас небесных тел Солнце – обыкновенная звезда, каких много можно найти на небе среди бесчисленного множества подобных звезд, различных по своим размерам, массам и светимостям. От них оно не отличается какими-либо заметными особенностями. Такие звезды называют нормальными, в отличие от тех, которые, например, входят в двойные или кратные звездные системы, или переменные звезды, определенным образом меняющие свои размеры и светимости и проявляющие те или иные признаки неустойчивости, выбрасывая вещество или даже взрываясь. Возникновение и эволюция звезд во Вселенной обеспечили возникновение жизни, потому что почти все атомы, из которых построены органические молекулы клеток растений и животных, возникли или когда-то побывали в недрах разных звезд. Для возникновения и обеспечения жизни особенно важна роль лучистой энергии Солнца, которая постоянно поддерживает необходимую для жизни среду обитания. Своим притяжением Солнце всегда удерживает Землю на почти одинаковом, среднем расстоянии от себя (астрономическая единица), обеспечивая тем самым достаточно стабильную экологию, пригодную для поддержания жизни. Наиболее энергичное ультрафиолетовое и рентгеновское излучение Солнца создает в земной атмосфере слой озона, защищающий все живое от губительной ионизующей радиации самого Солнца. Наше светило могучий и энергичный источник жизни на Земле, но в общении с ним следует быть весьма осторожным (особенно на пляже). Необходимо учитывать его мощь и знать его характер, порою вспыльчивый и грозный: иногда на Солнце наблюдаются энергичные плазменные взрывы, называемые солнечными вспышками.

Общее строение Солнца. Теоретические исследования прошлого столетия, подтверждены экспериментальными данными последних десятилетий. Они показали, что внутренние (нами непосредственно не наблюдаемые) слои Солнца в целом состоят из трех основных частей, примерно одинаковых по глубине: 1) центральная часть (ядро), в котором максимального значения достигают температура, давление и плотность вещества, сжатого гравитацией и постоянно подогреваемого энергией термоядерных реакций; 2) лучистая зона, в которой энергия переносится наружу только излучением отдельных атомов, постоянно поглощающих и переизлучающих ее по всем направлениям; 3) конвективная зона (внешняя треть радиуса), в которой из-за быстрого охлаждения самых верхних слоев энергия переносится самим веществом. Это напоминает процесс кипения жидкости, подогреваемой снизу. Внешние, наблюдаемые слои Солнца называются его атмосферой. Их излучение, хотя и частично, непосредственно достигает наблюдателя. Солнечная атмосфера, в свою очередь, также состоит из трех основных слоев. Самый глубокий из них называется фотосферой (сфера света). Она очень тонка, всего несколько тысячных долей радиуса Солнца. Тем не менее, из этого тонкого слоя исходит почти вся энергия, излучаемая Солнцем. Фотосферу часто неправомерно называют «поверхностью Солнца», хотя у газообразного шарообразного тела поверхности нет и не может быть. Условились под радиусом Солнца понимать расстояние от центра до слоя с минимальным значением температуры.

(19.67 Кб)

Во внешних слоях фотосферы температура достигает минимального для всего Солнца – значения около 4200 К. При такой температуре только один из 10 000 атомов водорода ионизован. Вместе с тем во столько же раз меньше количество атомов тех элементов, которые легко ионизуются, отдавая хотя бы один электрон (в основном, это металлы). Поэтому в целом вещество фотосферы даже в области температурного минимума продолжает оставаться сильно ионизованной горячей плазмой. Выше этого слоя температура быстро возрастает, усиливается ионизация водорода и других элементов и начинается следующая важная часть атмосферы – хромосфера (сфера цвета). Там, где температура увеличится почти до миллиона кельвинов, хромосфера переходит в солнечную корону – горячую высокоионизованную плазму, расширяющуюся в межпланетное пространство в виде так называемого солнечного ветра – потока заряженных частиц (плазмы), увлекающего с собой силовые линии солнечных магнитных полей и «обдувающего» земную магнитосферу.

Что и как можно увидеть на Солнце? Не защитив тщательно глаза, смотреть на Солнце нельзя! Можно осторожно взглянуть на него через очень плотный специальный светофильтр или сильно засвеченную и хорошо проявленную фотоэмульсию. Иногда, если на горизонте видна дымка или легкие облака и Солнце выглядит красным диском, на него можно мельком взглянуть. Солнце выглядит очень резко очерченным диском почти такой же угловой величины, как и круг полной Луны. Вблизи горизонта оно кажется заметно приплюснутым из-за неодинаковой величины рефракции (преломления световых лучей в земной атмосфере). Из-за рефракции все объекты, наблюдаемые на небе, кажутся чуть выше, причем тем сильнее, чем они ближе к горизонту. Поэтому нами воспринимается, что нижний край Солнца поднят выше, чем верхний, и оно кажется сплюснутым. Фактически изображения Солнца мы видим, чуть ли не на каждом шагу! Особенно легко это заметить в летний, солнечный день, проходя по тенистой аллее и наблюдая круги – блики, создаваемые на земле солнечными лучами, проникающими через самые узкие просветы листвы. Эти круги – изображения Солнца, создаваемые малыми отверстиями (как в камере обскура). Одинокий солнечный луч, проникающий сквозь небольшое отверстие в темное помещение, создает на белом экране изображение Солнца, причем тем большее, чем дальше экран отстоит от отверстия. На нем можно даже заметить отдельные детали. Однако лучше всего они видны на экране, установленном после слегка выдвинутого окуляра телескопа. Рассматривая изображение Солнца на экране можно заметить, что у солнечного диска резкий край – лимб. Диск Солнца кажется налитым, подобно капле. От центра к краю яркость солнечного диска уменьшается, почти вдвое у самого лимба. Это следствие очень быстрого уменьшения прозрачности, а также излучательной способности и температуры Солнца в самых наружных его слоях: чем ближе к краю проходит луч зрения, тем более внешние слои солнечной атмосферы он пересекает, и по мере приближения к лимбу солнечный диск кажется темнее. Временами на Солнце видны небольшие темные округлые образования – пятна, которые нередко образуют целые группы солнечных пятен. Вблизи края на диске Солнца можно заметить волокнистые яркие точки и нити, напоминающие кружева и образующие яркие площадки – факелы. При особенно благоприятных атмосферных условиях удается заметить грануляцию – зернистую структуру на всем диске, состоящую из мелких ярких гранул, разделенных более темными промежутками.




Общие характеристики Солнца. По своим размерам Солнце относится к типичным звездам-карликам спектрального класса G2 диаграммы Герцшпрунга - Рассела. Это означает, что солнечный свет, который мы привыкли воспринимать как белый, на самом деле слегка желтоватый. Солнце удалено от Земли в среднем на расстояние 149 597 870 км. Поскольку это расстояние – важнейший масштаб в Солнечной системе, его принимают в качестве одной из основных единиц измерения расстояний в астрономии и называют астрономической единицей (а.е.). Солнце – центральное тело нашей Солнечной системы и в нем сконцентрировано более 99,86% всей ее массы. Полагают, что планеты и Солнце возникли 4–5 млрд. лет назад из гигантской газопылевой туманности. При этом Солнце вобрало в себя наибольшую часть массы, которая в настоящее время составляет около 2·1027 тонн, что в 333 тысячи раз больше массы Земли и в 743 раза превышает массу всех планет, вместе взятых. Зная расстояние до Солнца и видимый его угловой радиус, легко определить, что оно в 109 раз больше Земли, и его радиус достигает 696 тысяч километров. Следовательно, объем Солнца более, чем в 1 300 000 раз превышает земной, а потому средняя плотность оказывается почти в 4 раза меньше земной и составляет около 1,4 г/см3 (или 1410 кг/м3 ). По земным меркам светимость Солнца колоссальна и достигает 3,85·1023 кВт. Даже ничтожная доля этой энергии, которая облучает земной шар (а это, примерно, одна десятимиллиардная) по своей мощности в десятки тысяч раз больше, чем могут выработать все электростанции мира. Энергия солнечных лучей, падающих на перпендикулярную к ним площадку в 1 квадратный метр на Земле, могла бы заставить работать двигатель мощностью 1,4 кВт, а 1 м2 атмосферы Солнца излучает энергию с мощностью 60 МВт (мегаватт). Солнце излучает так же, как и абсолютно черное тело с температурой около 6000 кельвинов (точнее 5770 К).
Солнце в числах. В таблице 1 приведены значения основных параметров Солнца.


Таблица 1. ЗНАЧЕНИЯ ОСНОВНЫХ ПАРАМЕТРОВ СОЛНЦА
Расстояние от Земли наибольшее 152,1·106 км
среднее 149,6·106 км
наименьшее 147,1·106 км
Диаметр угловой  январь 32&#162; 35&#178; 
Июль 31&#162; 31&#178; 
Радиус угловой (средний) 959,6&#178; 
Радиус линейный   696 000 км
Масса   1,99·1030 кг
Средняя плотность   1,41 г/см2
Светимость   3,85·1026 Вт
Температура по излучению Эффективная 5770 К
Температура  в центре 15 000 000 К
Спектральный класс   G2,V
Возраст   Около 4,6·109 лет
Доля массы Не в начале эволюции 0,27 




Вращение Солнца. Наблюдаемые слои Солнца вращаются вокруг некоторой оси, немного отклоняющейся от нормали к плоскости эклиптики (на угол 7°15ў). Вращение происходит не как у твердого тела: его период относительно земного наблюдателя (т.е. синодический) изменяется от 27 сут. на экваторе до 32 сут. у полюсов. Поэтому скорость вращения наружных слоев Солнца зависит от углового расстояния от экватора (гелиографической широты). На экваторе линейная скорость вращения составляет около 2 км/с. Такой характер вращения Солнца сохраняется вглубь на протяжении около 200 000 км, что установлено на основании исследования частот звуковых волн, которыми буквально пронизано все Солнце. Более детальный анализ позволил выявить неоднородности вращения солнечного вещества, как если бы в нем, помимо общего вращения, происходили крутильные колебания отдельных слоев. Однако глубже 200 000 км вращение становится более однородным, и основная масса Солнца вращается почти однородно, подобно твердому телу.

(36.29 Кб)

Спектр Солнца. Солнечный свет, разложенный на составные цвета, называется его спектром. Впервые в лаборатории спектр Солнца наблюдал Ньютон. Пропустив тонкий солнечный луч через призму, он увидел красочную полоску и так назвал новое явление (spectrum по латыни привидение). Однако в природе спектр Солнца часто наблюдается в виде радуги в дождливую погоду. Ее возникновение аналогично тому, что происходит в любом спектральном физическом приборе (например, спектрографе, предназначенном для фотографирования спектров). В приборе белый свет проходит через узкую щель, а затем через стеклянную призму или дифракционную решетку, которые разлагают свет на лучи всевозможных цветов в виде многоцветной полоски, состоящей из ряда цветных изображений щели. Полоска, соответствующая длине каждой световой волны, излучаемой источником, оказывается строго на своем месте (аналогично клавишам рояля). Свет может разлагаться так называемой дифракционной решеткой – зеркалом, на которое нанесены частые тончайшие штрихи, разделяющие его на очень большое число узеньких продолговатых зеркалец. На каждом из них свет рассеивается по всем направлениям (дифрагирует). В каком-либо одном направлении лучи складываются (интерферируют) так, что усиливается свет только строго одного цвета (монохроматический), а все остальные цвета – гасятся. В случае естественной радуги происходит то же самое, но роль решетки выполняют струи из капелек воды. Солнечные спектрографы, длина которых достигает десятка и более метров, создают полосу спектра, одна только видимая часть которого достигает многих метров. Самая замечательная особенность солнечного спектра – десятки тысяч узких темных полосок, многие из которых впервые описал в 1814 немецкий физик Йозеф Фраунгофер. Впоследствии эти темные линии поглощения стали называть фраунгоферовыми. Спектральные линии – как бы буквы огромной книги, по которой астрофизики могут узнать очень многое о солнечных газах в тех местах, где их пересекла щель спектрального аппарата. Каждая спектральная линия испускается атомом или ионом какого-либо определенного химического элемента, обладающим определенной энергией возбуждения. Если бы излучающие атомы были в небольшом количестве изолированы от остальной части солнечного вещества, подобно атомам неона в рекламной трубке, то в спектральном приборе мы увидели бы в излучении только одну (или несколько) ярких спектральных линий. Все атомы способны излучать свет и вне спектральных линий (непрерывный спектр). Однако в линиях, как правило, газ менее прозрачен и видны внешние слои атмосферы, расположенные выше слоев, наблюдаемых в непрерывном спектре. Если в атмосфере наружу температура убывает, то на фоне более яркого непрерывного спектра линии кажутся темными. Каждая спектральная линия несет в себе информацию о физических свойствах и движении излучающего ее вещества. Если она смещена в синюю часть спектра от своего нормального положения, то, согласно эффекту Доплера, – газ приближается к нам, если в красную – то удаляется от нас. Ширина и форма спектральной линии связаны с количеством излучающих и поглощающих атомов, скоростью их движения и температурой газа. Если газ находится в магнитном поле, линия расщепляется на две или три составляющие, которые в сильном магнитном поле видны раздельно






Инструменты для наблюдения Солнца. Сначала Солнце наблюдали в обычные рефракторы, ограничивая мощность попадающего в объектив света. Как правило, для наблюдений Солнца используют длиннофокусные сферические зеркала или линзовые объективы для получения большого диаметра изображения, вплоть до целого метра! При этом длина телескопа должна достигать сотни метров. Такой инструмент трудно наводить на Солнце и невозможно оснастить громоздкой дополнительной аппаратурой. Поэтому крупные солнечные телескопы делают неподвижными, освещая их солнечными лучами при помощи специальных вращающихся зеркал – целостатов. Для получения неподвижного изображения Солнца целостатное зеркало вращается вокруг оси, параллельной оси вращения Земли (оси мира), при помощи специального часового механизма. Если скорость этого вращения вдвое медленнее, чем у Земли, то солнечный луч всегда будет отражаться от целостатного зеркала в одном и том же направлении. При помощи второго (дополнительного) целостатного зеркала наблюдатель освещает солнечными лучами различные приборы, регистрирующие изображение Солнца и анализирующие его излучение. Джордж Хейл впервые использовал целостат для создания горизонтального солнечного телескопа, часто используемого в экспедиционных условиях. Современные большие солнечные телескопы строят в виде башни, на которой сверху устанавливают целостатные зеркала. Такие инструменты снабжены множеством дополнительных приборов, позволяющих регистрировать и анализировать излучения Солнца в различных точках его изображения. Основной инструмент – большой спектрограф, не уступающий по своим свойствам лучшим приборам современных физических лабораторий. Общая длина видимого спектра Солнца в таком приборе достигает десятка метров. Для исследования из него выбирается одна или несколько узких областей (спектральных линий), которые затем измеряются фотографическими или фотоэлектрическими методами.
(32.27 Кб)

Спектрогелиограф. В 1800 французский ученый Пьер Жансен и англичанин Локьер, наблюдая полное затмение Солнца, заметили, что когда затмение кончилось, протуберанцы на краю Солнца продолжали наблюдаться в спектроскоп. Используя этот опыт, американский астроном Хейл в 1889 изобрел спектрогелиограф. Чтобы получить изображение Солнца в свете некоторой спектральной линии, одновременно перемещают изображение Солнца перед щелью спектрографа и синхронно с ним кассету с фотопластинкой перед изображением спектра. В результате получается построчная развертка изображения большой области на Солнце, как на экране телевизора. В настоящее время разработаны специальные светофильтры, позволяющие получить изображение Солнца в одной какой-либо спектральной линии. Например, фильтр DayStar, (рассчитанный на пропускание красной спектральной линии водорода 0,6563 мкм) доступен даже любителям астрономии.

Космические аппараты исследуют Солнце. Солнце стало первым объектом внеатмосферных исследований в астрономии. Сначала использовались трофейные германские ракеты, благодаря которым в 1946 американские ученые впервые сфотографировали спектр Солнца вплоть до длины волны 0,22 мкм (с поверхности Земли можно наблюдать только до 0,29 мкм). В 1948 впервые было зарегистрировано излучение самой сильной линии солнечного спектра – линии Лайман альфа водорода с длиной волны 0,1024 мкм. Первые изображения Солнца в рентгеновских лучах были получены с ракеты только в 1960. Однако следующие – только через 13 лет, когда на смену ракетной техники пришли специализированные американские и европейские космические аппараты. Первыми из них была серия восьми спутников, названных «Орбитальными солнечными обсерваториями» (OSO, 1965–1985). Затем последовали четыре экспедиции с участием космонавтов «Небесной лаборатории» (SkyLab, 1973–1974), которые получили множество прекрасных рентгеновских снимков солнечной короны. Космический аппарат «Солнечный ветер» (SolarWind) работал на орбите с 1979 по 1985. «Миссия солнечного максимума» (SMM) функционировала в 1984–1989. Дольше этих аппаратов работал на орбите японский спутник Йоко (Yohkoh по-японски означает солнечный луч), запущенный в 1991. В 1995 был начат запуск российской серии космических аппаратов «Коронас», а также вышла на орбиту американо-европейская «Солнечная и гелиосферная орбитальная обсерватория» SOHO с множеством самой различной современной аппаратуры для исследования Солнца. В 1998 в Англии запущен и успешно работает космический аппарат Трейс, отличающийся высоким разрешением получаемых на нем изображений активных процессов на Солнце.

(27.56 Кб)

Модель внутреннего строения Солнца. В таблице 2 приведены результаты теоретического расчета так называемой стандартной модели Солнца, использующие наиболее надежные исходные параметры: R – расстояние от центра Солнца, выраженное в долях его радиуса; Т – температура, Р – давление; D плотность.


Таблица 2. СТАНДАРТНОЙ МОДЕЛИ СОЛНЦА
R  T, K P, Па  D, г/см3
Ядро энерговыделения 
0 15 500 000 2,3·1016 149
0,1 13 100 000 1,3·1016 87,4
0,2 9 420 000 4,4·1015 35,3
Лучистая зона
0,3 6 810 000 1,1·1015 12,1
0,4 5 140 000 2,7·1014 3,94
0,5 3 980 000 7,0·1013 1,32
0,6 3 130 000 2,1·1013 0,50
Конвективная зона 
0,7  2 340 000 6,4·1012 0,20
0,8  1 380 000 1,6·1012 0,09
0,9  602 000 2,0·1011 0,02
0,98 99 600 1,7·109 0,001
Фотосфера 
1,00 4560 1,2·104 0,74·10–7


Предполагается, что в начале эволюции химический состав солнечного вещества был всюду одинаковый: по массе 71% водорода, 27% гелия и 2% всех остальных элементов. По числу атомов это соответствует: водорода 90 %, гелия менее 10%, углерода, азота и кислорода вместе взятых около 0,1%. На долю всех остальных химических элементов (в основном, металлов) приходится не более 0,01% от числа всех атомов. Считается, что в процессе дальнейшей эволюции химический состав изменяется только в ядре из-за термоядерных реакций превращения водорода в гелий.


Оффлайн Jayko Мужской

Re: всё о науке
« Ответ #6 : 13 Октября 2007, 19:03:51 »
Открою тему только если будет новый материал. Те у кого есть чтото новое кидать в личку , открою тему.

ЗАКРЫТО

+  Форум FlashPlayer.ru
|-+  Общение
| |-+  О чем-то интересном
| | |-+  Город открытий. (Модератор: bobegor)
| | | |-+  всё о науке