Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр

Что нужно для работы в сети

Для того, чтобы работать во всемирной сети, нужно к ней подключится. На сегодняшний день есть несколько способов подключения к Интернет. Это разные типы соединения с различной скоростью связи и ценой.

Модем. С помощью модема связь с Интернетом осуществляется по стандартной телефонной линии. Эта связь достаточно ненадежна, хотя и  относительно дешева. Для связи по модему  требуется наличие телефонной линии и внутреннего или внешнего модема.

ISDN. Это линия связи, которая очень похожа на обычную телефонную, с одной только разницей —  она полностью цифровая и может обеспечить гораздо большую скорость, в отличие от модема. Для работы нужно наличие либо модем ISDN, либо адаптера ISDN и соединителя NT-1.

Frame relay — ретрансляция кадров. Это постоянная линия связи, надежная связь с Интернетом. Для установки такого соединения необходимо наличие  соответствующей компьютерной платы и линии frame relay.

Выделенная линия. Это технология, аналогичная frame relay, но в данном случае связь устанавливается между двумя точками. Для постоянного подключения к сети Интернету выделенная линия – это самый лучший выбор.

Что такое интернет? история и этапы развития

Оценка верхней границы разрешения исторических фотографий имеет важное значение для настройки параметров оцифровки. Сегодня у нас наконец-то есть технология, позволяющая оцифровать практически всю информацию, содержащуюся на фотографии, и сделать ее широко доступной для общественности. Оцифровка трудоемка и опасна для оригинала, поэтому желательно сделать это всего один раз. Таким образом, ключевой вопрос заключается в том, какое разрешение сканирования достаточно, чтобы нам никогда не пришлось бы повторять его снова? Я задал этот вопрос в 2004 году, когда начался наш проект оцифровки архива фирмы “Шехтль и Восечек”( Šechtl & Voseček), и здесь я пытаюсь обобщить свои наблюдения по поводу одного конкретного изображения.

“Забастовка в Боснии” под микроскопом

Игнац Шехтль, Жижкова площадь в Таборе, 1880-1885, мокрый коллоидный процесс, негатив 11х13 см.

Это один из моих любимых примеров исторической фотографии высокого разрешения. Это была одна из первых фотографий, что мы просмотрели в 2004 году и заметили кое-что необычное. На крошечном фрагменте оригинальной стеклянной пластины отчетливо виден текст “Povstání v Bosně” / “Забастовка в Боснии”! Это был ключ к датировке фотографии – забастовка в Боснии была в 1875 году, так что это, должно быть, одна из самых старых сохранившихся фотографий площади!

Нам пришлось ждать еще 10 лет, чтобы прочитать больше, потому что нужно было отсканировать её в невероятных 5588dpi (5588 точек на отрезке в один дюйм (2,54 см)). Скан представлен здесь в полном разрешении (я, правда, не нашёл, где, ибо те фотографии, что приведены здесь, меньше описываемого исходника в десятки раз). В 2020 году мы купили сканер Eversmart Select, способный сделать такую работу (этот король планшетных сканеров в 2000-е годы стоил, как Ferrari, и нам всё ещё пришлось заплатить 6000 долларов за этого монстра). Сам текст имеет размер 0,5×0,2 мм в исходном размере. Нажмите на картинку, чтобы увидеть полное разрешение.

На обращённом и кропнутом (4,5х5,5мм) изображении видны позирующие для длинной выдержки люди, а также объявления на информационных щитах.

На фотографии позируют более 10 человек. Мальчик на переднем плане (за пределами предполагаемого кадрирования, если делать визитную карточку) успел сфотографироваться 4 раза. Очевидно, время экспозиции было долгим, и вся площадь взаимодействовала с фотографом. На последней (кропнутой) фотографии люди имеют рост около 0,2 мм. Возможно, они были разочарованы тем, что не смогли узнать себя даже под сильным увеличительным стеклом.

Однако мы смогли прочитать больше текста. Вы можете увидеть “Národní Kalendář”/” Национальный календарь” и, ещё более мелким шрифтом, “výročí”/”юбилей”. С помощью Google я смог идентифицировать сам календарь – это “Pečírkův Národní Kalendář”. Здесь вы можете прочитать дипломную работу об этом знаменитом календаре (на чешском). Очевидно, это один из выпусков, произведённых к годовщине забастовки в Боснии. По другим признакам, видимым на фотографии, мы знаем, что она был сделана в 1880-1885 годах. Таким образом, это означало, что придётся посетить Национальную библиотеку, чтобы уточнить, в каком именно.

Так каково же разрешение этой фотографии?

Обрезок объявления, отсканированного на 5588dpi с помощью Eversmart Select (слева), после цифровой накрутки резкости (посередине) и после уменьшения до 2000dpi и растянутый обратно (до 5588dpi)

Видно, что 2000dpi уже захватывает не все детали мелкого текста. При 2000dpi размер скана всей фотографии будет 8701×10315 пикселей, или 90 мегапикселей! Значительно выше разрешения моего Canon G7X, и это довольно консервативная оценка.

Конечно, этот снимок не конкурирует с нынешней 90-мегапиксельной цифровой камерой по всей площади пластины. Исторические объективы были резкими и контрастными в центре, а разрешающая способность ухудшалась по углам. Тем не менее впечатляет, что в 1880-е годы фотографы могли достичь разрешения дорогих профессиональных камер, доступных сегодня. 80-мегапиксельная Мамия продается за 28000 долларов, и это один из наиболее дешевых вариантов.

Как я могу оценить разрешение исторического негатива?

Достаточно ли моего сканирования в 5588DPI, или можно прочесть на объявлении ещё больше текста? Ну, в этом случае я могу легко дать ответ, сравнив резкость трещины в эмульсии с деталями изображения. Очевидно, что трещина чётче, чем остальная часть изображения, и поэтому камера моего прапрадеда не запечатлела резких деталей на 5588DPI.

{Вот тут я не совсем понял: либо Игнац Шехтль – действительно его прадед, либо он просто дурачится, потому что дальше он назовёт его прадедом ещё не раз}

Учитывая размеры архива с негативами, невозможно исследовать каждый из них настолько скурпулёзно. К счастью, доступны замеры, которые позволяют нам оценить разумный верхний потолок разрешения. Они хорошо описаны в работе Тимоти Витале: оценка разрешения исторических пленочных изображений: использование уравнения разрешающей способности (RPE) и оценки качества линз.

С 1940-х годов некоторые производители пленки публикуют данные о количестве пар линий на миллиметр, которые данная пленка может вместить. Обобщив данные опубликованных измерений, Т. Дж. Витале подготовил следующую таблицу по разрешению черно-белой пленки:

Тимоти Витале: оценка разрешения исторических пленочных изображений: использование уравнения разрешающей способности (RPE) и оценок качества объективов, рис. 18а

В этой таблице приведены данные о разрешении черно-белой пленки (начиная с 1940 года) и предполагаемом разрешении негатива в зависимости от года изготовления.

Разрешение негатива, однако, является просто очень грубой верхней границей разрешения реальной фотографии. Каждая фотография сделана через объектив, и от качества объектива зависит, насколько мелкие детали они могут запечатлеть. Следующее изображение прекрасно резюмирует этот эффект:

{Далее будут упомянуты формула расчёта и таблицы 1 и 2, которые не приводятся в статье. Ща объясню:

Сначала то самое уравнение разрешающей способности (PRE).

Для фотографий это

1/R = 1/r [носитель] 1/r [объектив кам.] 1/r [объектив увел.] 1/r [фотобумага],

где R – общая разрешающая способность, r – разрешающая способность конкретного компонента

Нас же интересуют непосредственно негативы, для оценки разрешающей способности которых достаточно знать, на что способны пленка и объектив.

1/R [система] = 1/r [носитель] 1/r [объектив]

А вот Кодак, например, приводит в своих даташитах более сложную формулу. При этом она даёт почти тот же самый результат, поэтому автор решил ею не пользоваться.1/R^2 [система] = 1/r^2 [носитель] 1/r^2 [объектив]

Таблица 1. Информация о разрешении некоторых пленок и объективов. И не только о разрешении – на объективы приведена средняя цена по соответствующему данной эпохе курсу доларах.

Таблица 2. Таблица данных разрешающей способности конкретной системы. Посчитали, как изменится разрешающая способность системы, если плёнку отснять объективами разной степени хреновости. Выражены в количестве точек на дюйм (PPI) и потери в процентном отношении к возможностям пленки. lp/mm – пары линий на миллиметр

Возвращаемся к статье}

Таким образом, чтобы оценить разрешающую способность фотографии, необходимо оценить разрешающую способность объектива и объединить результаты с помощью уравнения разрешающей способности или использовать следующую упрощенную таблицу, предсказывающую потерю разрешения:

Таблица 3. 12 рекомендаций по прогнозированию потерь разрешения плёнки в соответствии с эрой и качеством плёнки и объектива.

Чтобы определить разрешение черно-белого негатива, сначала оценивают разрешение пленочного материала по первой таблице, а затем учитывают потери по второй таблице. Для уверенности, что детали изображения можно отличить от дефектов, было бы неплохо отсканировать его с разрешением примерно в два раза больше от расчётного.

И какой же сканер мне понадобится для фотографии моего пра-прадедушки? Ну, это типа негатив большого формата, снятый в 1880-х годах. Согласно первой таблице, разрешение “пленки” должно быть 1500ppi. Я применяю рекомендацию 9 (из табл. 3), из которой следуют потери в 60%. Фотография должна получиться не более 600ppi. На самом деле Т. Дж. Витале оценил бы её еще ниже:

Пленка 1889 года – собственное разрешение пленки 1885 года составит около 1460 ppi (28 ЛП/мм). Это пленка низкого разрешения, экспонируемая через средний объектив той эпохи, около 20-30 ЛП/мм. В соответствии с руководством 10 в таблице 6, пленка будет производить изображения с разрешением в диапазоне 483 ppi, как показано в колонке 7 таблицы 7. Однако если изображение было сделано с помощью ручной камеры, такой как складная камера Kodak #3 или коробчатая камера Kodak #2, оно может быть даже ниже 292 ppi, следуя руководству 11, как показано в колонке 8 таблицы 7.

Тимоти Витале: оценка разрешения исторических пленочных изображений: использование уравнения разрешающей способности (RPE) и оценки качества объектива, стр. 22.

Вот что я должен был бы увидеть на объявлении, если бы разрешающая способность была 600DPI

Тот же самый кроп (с календарём), ужатый до 600dpi и растянутый обратно.

Как мой пра-прадед обманул технологии и получил изображение в таком впечатляющем разрешении, если это было невозможно?

Во-первых, я считаю, что в таблице Тимоти Витале есть ошибка. 1940 год-это примерно то время, когда увеличители стали мейнстримом (с появлением 35-миллиметровых камер), а фотографы отошли от контактной печати. Впервые стал важен размер зерна негативного материала. Таким образом, я считаю, что использование закона Мура неверно. В то время, когда были изобретены черно-белые негативы, они начинались с некоторого разрешения, которое было легко произвести, и улучшения до 1940-х годов, вероятно, были гораздо менее драматичными, чем улучшения после 1940-х годов и до наших дней.

Таким образом, можно предположить, что разрешение пленки оставалось неизменным с момента изобретения пленки до 1940 года. Давайте повторим оценку, используя данные 1940-х гг. Пленка 1940-х годов оценивается в 3000PPI, с потерей 60% я получаю 1200PPI.

Всё тот же кроп, ужатый до 1200dpi и растянутый обратно.

Что ж, это уже ближе, но ясно, что я не смог бы идентифицировать автора календаря. Так что все еще недостаточно хорошо.

Есть еще одна ошибка в моей оценке – фотография сделана очень трудоемким мокрым коллодионным процессом (использовавшимся моим прапрадедом до начала 1890-х годов), где стеклянную пластину нужно было подготовить на месте, выставить и проявить еще влажной (поэтому фотографу пришлось бы принести палатку с передвижной фотолабораторией). Влажный процесс был хорошо принят за его низкую зернистость и использовался для печати еще долго после того, как появились сухие негативы.

Допустим, что эти негативы имели бесконечное разрешение, и посмотрим, какие объективы были доступны в 1880-х.

Сейчас ищут техподдержку:  Минздрав Хабаровский край - горячая линия, телефон, официальный сайт

Гайд по оценке разрешения объективов всё из того же труда Тимоти Витале.

Профессиональный БФ – Любительские бокс-камеры, складные и какие-то PnS – Профессиональные среднего формата – Профессиональные и любительские малого формата.

В соответствии с этой таблицей, в 1880-х лучшая оптика могла похвастаться максимум 40 lp/mm.

Цифровое разрешение можно легко вычислить: 40*25.4*2=2002 (преобразование в дюймы и умножение на два для каждой пары линий). Это правдоподобное число, соответствующее моим наблюдениям. Но где же потеря разрешения пленки? Даже если мелкозернистый, влажный коллодиевый процесс определенно не имел бесконечное разрешение. Ну, мне не удалось найти никаких данных, и я подумываю провести эксперимент.

В каждом случае разрешающая способность объектива должна быть как минимум на 25% больше, чем фактическое разрешение изображения. До сих пор кажется маловероятным, что Игнац смог достичь такого разрешения с помощью актуальной на то время камеры, потому что объективы с разрешением более 50 ЛП/мм стали доступны только в 1890-х годах после того, как дома, запечатлённые на фотографии, были снесены.

По семейным преданиям, Игнац ездил в Англию и Венгрию за качественными объективами. Может быть, он также путешествовал во времени за своими покупками?

Мой пра-прадед во время визита в Лондон.

Более вероятное объяснение заключается в том, как оценивается разрешение объектива. Разрешение различается в центре и по краям, а также сильно зависит от ширины апертуры. В оптимальном месте и с зажатой диафрагмой объектив, вероятно, может работать немного выше своих официальных параметров, хотя Т. Дж.Витале прямо упоминает, что исторические объективы (1915-50), должно быть, ограничены 40-60 ЛП/мм в центре, и в его опыте негативы не превышают 1250ppi.

Руководства по оцифровке

Каковы данные в официальных руководствах по оцифровке негативов стеклянных пластин? Ответ варьируется, но в основном сильно ниже моих наблюдений:

U.S. National Archives and Records Administration (NARA) Technical Guidelines for Digitizing Archival Materials for Electronic Access: Creation of Production Master Files – Raster Images рекомендует сканирование в 6000 пикселей по длинному краю, около 135 МБ данных RGB, то есть 45 мегапикселей.

Library of congress digitized civil war photographs – примерно по 40 мегапикселей на каждый негатив (разрешение зависит от размера негатива).

Federal Agencies Digitization Guidelines Initiative: Technical Guidelines for Digitizing Cultural Heritage Materials рекомендует оцифровать фотографическую пленку до 4×5 при 1000PPI (1 звезда), и до 4000PPI (4 звезды). Рекомендация 4 звезды хороша, но если бы стеклянная пластина была на дюйм больше, она сканировалась бы от 500 PPI (1 звезда) до 2000 PPI (4 звезды).

Digitization Standards for the Canadian Museum of Civilization Corporation – рекомендуется 300 ppi, с минимумом 3000 пикселей для более длинной стороны (8×10, или 1:1 для форматов больше 8 x 10)

DFG Practical Guidelines on Digitisation:

Средний формат: 4000 dpi x 0.03 / 0.05 = 2400 dpi

9 x 12: 4000 dpi x 0.03 / 0.1 = 1,200 dpi

18 x 24: 4000 dpi x 0.03/0.2 = 600 dpi

Итог

Оцифровка исторических фотографий должна производиться таким образом, чтобы все детали оригиналов были запечатлены в цифровом файле. Здесь я сосредоточился на черно-белых негативах, которые являются одними из лучших, а также демонстрируют наибольшее разнообразие. Разрешение фотографии можно оценить на основе года ее изготовления и размера негатива, используя данные, представленные в работе Т. Дж. Виталя.

Я могу показать реальный пример фотографии, сделанной в 1880-1885 годах, которая соперничает с лучшими цифровыми снимками, которые мы можем сделать сегодня (по крайней мере, в в центральной их части). Детали изображения достигают разрешения более 2000ppi и нуждаются в сканировании с разрешением более 90 мегапикселей. Я бы сказал, что действительно полностью удовлетворительный скан представленной фотографии (с точки зрения разрешения) должен быть не менее 4000ppi, или 360 мегапикселей. Удвоение фактического разрешения изображения полезно для того, чтобы сделать повреждение фотографии легко отличимым от исходного изображения (на самом деле, Т. Дж.Витале рекомендует умножить на 4 для идеального захвата, это подтверждается теоремой Найквиста). Настоящий монстр, который превосходит большинство рекомендаций Руководства по оцифровке, за исключением FADGI.

{Вот это вот имеется в виду}

Следуя рекомендациям Т. Дж. Витале, можно оценить разрешающую способность в 600ppi. Таким образом, к предположениям о разрешении пленки до 1940-х годов, представленном Т. Дж.Виталем, следует относиться с осторожностью и, вероятно, стоит придерживаться опубликованных данных (то есть, все сухие стеклянные негативы до 1940-х годов должны иметь разрешение около 3000ppi), и еще более тщательно относиться к негативам мокрого процесса. Негативы, предшествовавшие 1940 году, редки и драгоценны, и стоит иметь дополнительное дисковое хранилище для таких сканов.

В следующей части я приведу примеры негативов сухого процесса высокого разрешения из нашей коллекции и перейду к вопросу о динамическом диапазоне, битовой глубине и других аспектах хорошего сканирования.

—————————————————————————————————————————————————————-

60-е: предпосылки появления интернета и arpanet

Как и многие другие передовые технологии, интернет в его первичной форме зародился в военных штабах Америки. Холодная война грозила США множеством бед, в том числе, и запуском межконтинентальных ядерных ракет. Советские технологии внушали страх и трепет, а запуск первого автономного летательного аппарата в 1957 году не только подарил всему англоязычному миру неологизм «sputnik», но и заставил оборонную промышленность работать на опережение.

Одним из следствий этой работы стало создание ARPA, агентства перспективных исследовательских проектов. В компетенции агентства была разработка технологий, которые могли бы дать США весомое преимущество в Холодной войне и возглавить гонку вооружений, а в случае открытой конфронтации — помочь в защите страны.

К 1962 году агентством были сформированы первые тезисы о некой взаимосвязанной сетевой системе, которую Дж.К.Р. Ликлайдер из Массачусетского технологического института назвал «галактической сетью». Вкратце, галактическая сеть предполагала мгновенное получение доступа к любой информации в электронном виде, находящейся на множестве взаимоудаленных компьютеров. Теперь требовалось понять, как именно эти компьютеры будут связаны.

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Дж.К.Р. Ликлайдер, гений, инноватор и крестный отец интернета

В то же самое время, благодаря исследованиям ВВС США, заказанным с целью определить, каким образом вооруженные силы смогут сохранять командование в случае ядерного удара, к «галактической сети» прибавился еще один кирпичик будущего интернета: технология коммутации пакетов (packet switching).

Идея коммутации пакетов состоит в том, что пакет данных, содержащий в себе информацию как об источнике, так и о конечном пункте «путешествия», может быть отправлен из одного местоположения в другое. Если на каком-то участке пути пакет терялся, отправитель мог с легкостью отправить его снова. Для телефонных сетей того времени это было крайне полезной находкой.

Поскольку США требовалось построить децентрализованную модель командования, при которой, независимо от степени нанесенного врагом ущерба, ВС не теряли бы контроль над собственным оружием, самолетами и бомбардировщиками и могли продолжать оборону, внедрение технологии коммутации пакетов решало эту задачу.

В 1968 году в США началось строительство ARPANET, сети-предшественника современного интернета, которой было суждено стать плацдармом для обкатки множества технологий, которые мы используем и по сей день.

В 1969 году, 29 октября, состоялся первый успешный сеанс связи между двумя компьютерами. Первый находился в Массачусетсе, второй – в Калифорнии, оба принадлежали местным техническим университетам. Расстояние между компьютерами составляло порядка 640 км.В 21:

00 по местному времени Чарли Клайн попытался подключиться к компьютеру Стэнфорда и передать 5 символов, слово ”LOGIN”, однако сеть оборвалась, и удалось ввести только два первых символа. В 22:30 соединение было восстановлено, и вторая попытка увенчалась успехом.

Эксперимент показал, что компьютеры не только могут быть физически соединены друг с другом, но и способны обмениваться данными и программами. Тем не менее, способ связи с помощью низкоскоростной телефонной сети уже тогда не мог считаться надежным и приемлемым.

ARPANET был построен на базе четырех миникопьютеров Honeywell DP-516, оснащенных 24 кбайт оперативной памяти и расположенных в университетах Санта-Барбары, Лос-Анджелеса, Стэнфорда и Юты. Данные передавались со скоростью до 56 Кбит/с.

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ DDP-516Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Один из первых IMP, выполнявших функцию маршрутизаторов и использовавшихся в ARPANET с конца 60-х по 1989 год

Команда, работающая над IMP, назвала себя «IMP Guys».

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Команда IMP (слева направо): Трутт Тэтч, Билл Бартелл, Дейв Уолден, Джим Гейсман, Роберт Кан, Фрэнк Харт, Бен Баркер, Марти Торп, Уилл Кроутер и Северо Орнштейн. Берни Козелла на фото нет.

70-е: взрывной рост интернета

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр/ Логическая схема ARPANET, март 1977

К 1971 году количество компьютеров, подключенных к ARPANET, выросло почти в 6 раз: теперь основу сети составляли 23 хоста. Люди ступали на новые, еще неизведанные земли, и каждый новый шаг был инновацией. Так, в первые же дни работы ARPANET был придуман и внедрен протокол NCP, Network Control Protocol. Однако еще одно изобретение стало, как сейчас это принято называть, киллер-фичей интернета: электронная почта.

Приблизительно в 1972 году Рэй Томлинсон, сотрудник корпорации BBN, разработал первое ПО для отправки и чтения сообщений внутри ARPANET. Это первое, весьма грубое и неудобное по современным меркам, приложение заложило еще один компонент, без которого немыслим современный интернет: взаимодействие не только компьютеров, но и людей за ними.

К слову о коммуникации: первый протокол связи, NCP, работал только с определенными компьютерами, для которых был создан. Представьте себе, что сейчас, зайдя в интернет с iPhone, вы сможете общаться только с владельцами техники Apple. К тому же NCP мог обслуживать в лучшем случае несколько десятков компьютеров, в то время как присоединиться к ARPANET желали сотни пользователей.

Это стало толчком к разработке более универсального и совершенного протокола, которым, как вы уже догадались, стал TCP/IP за авторством Винта Серфа и Боба Кана. Уже в 1974 году необходимость в NCP отпала сама собой, и большинство клиентов ARPANET стали использовать TCP/IP.

Тем не менее, энтузиастам из США со временем стало тесно в пределах родной страны. Требовалось расширить горизонты коммуникации и установить связь со странами по ту сторону Атлантики. Здесь стоит сделать небольшое отступление и поговорить о том, каким образом была впервые налажена прямая «кабельная» связь между Америкой и Европой.

80-е: bind и dns

Практически все технологии, которыми мы пользуемся сегодня, проходят сходный путь от хаоса раннего применения до жесткой стандартизации и упорядочивания.

Одним из важнейших «упорядочивающих» моментов стало создание системы доменных имен, DNS. Коснемся её истории, чтобы доказать важность этого нововведения.

Ранее для хранения числовых адресов компьютеров, подключенных к ARPANET и сопоставления их с именами узлов, использовался текстовый файл HOSTS.TXT на компьютере Стэнфордского исследовательского института. Все адреса назначались сугубо вручную, и для того, чтобы запросить имя хоста и адрес, а также добавить компьютер в файл HOSTS, требовалось позвонить по телефону в сетевой информационный центр.

К началу 80-х стало понятно, что ввиду роста числа подключенных компьютеров такой способ поддержания централизованной таблицы хостов становится чрезвычайно медленным и громоздким. Требовалось автоматизировать систему именования.

Первая версия сервера имен BIND была написана студентами Беркли Дугласом Терри, Марком Пейнтером, Дэвидом Ригглом и Сонгниан Чжоу в 1984 году. В середине-конце 1980-х активно создавались и утверждались новые спецификации DNS, а к 90-м годам BIND был перенесен на платформу Windows NT.

BIND до сих пор широко распространен в Unix-системах (и не только) и по-прежнему является одним из самых широко используемых ПО DNS в интернете. Внедрение DNS принесло массу других нововведений, например – принудительное использование протокола TCP/IP для подключения.

Сейчас ищут техподдержку:  Горячая линия Дом.ру: номер телефона, служба поддержки

Gmail

Данный сервис электронной почты начал функционировать летом 2001 года. Сначала он был доступен лишь для ограниченного числа пользователей. Возможность использования сервиса Gmail более широким кругом появилась с апреля 2004 года. Важнейшим плюсом данной почтовой системы являлся огромный по тому времени объем для писем, который выделялся каждому пользователю.

Yahoo

Пионером среди поисковых систем является YAHOO. Джерри Янгу и Дэвиду Фило – создателям поисковика – необходимо было найти максимум информации о комадах, игравших в баскетбол. Пока отсутствовал их научный руководитель, высвобождалось свободное время для поиска решения.

С того времени началось стремительное развитие поиска в глобальной паутине, поскольку в него инвестировали значительный капитал рекламодатели. Им было выгодно размещение платных объявлений в поисковых системах, поскольку ими каждый день пользовалось большое количество людей.

Взгляд в будущее интернета

За эти полвека от начала своего создания и до сегодняшнего дня Интернет появился, вырос и сильно изменился. А также он продолжает меняться и в данное время. Интернет был задуман еще в эпоху другого времени, и смог выжить в эпоху персональных компьютеров, клиент-серверов и компьютерных сетей.

Дать сейчас хотя бы краткосрочный прогноз развития Интернета, а также назвать технологии, которые станут популярными в ближайшее время не трудно. Гораздо сложнее узнать о том, какая принципиально новая технология придет на смену Интернету, и придет ли.

Имеется в виду конец эры Интернета в его современном виде. На его смену может прийти всемирная вычислительная Сеть — гигантский суперкомпьютер, который предлагает не услуги передачи данных, а несколько другой принцип работы. Вместо привычного персонального компьютера пользователю предложат адаптер удаленного доступа, который подключается к монитору, мышке, телефону или другим периферийным устройствам. При этом провайдеры превратятся из поставщиков услуг в держателей мультипроцессорных мэйнфреймов.

Но, стоит отметить, что у технологии единой вычислительной Сети нового поколения с терминальным доступом есть ряд неоспоримых плюсов:

  • у рядового пользователя исчезают проблемы, связанные с покупкой, установкой, эксплуатацией, настройкой, и т.д. аппаратного обеспечения;
  • наличие платы только за фактическое использование программного обеспечения, а не предоплата за услуги и ресурсы могут быть и невостребованные;
  • профессиональное решение проблемы защиты информации, а также обеспечение приватности;
  • доступность программного обеспечения;
  • переход к новому уровню утилизации ресурсов.

Естественно развертывание такой технологии требует решения огромного количество технических проблем.

Виртуализация x86 и облака

Впервые аппаратная виртуализация была реализована в 386-х процессорах и называлась V86 mode. Режим позволял запускать параллельно несколько DOS-приложений.

В 2005-2006 году компании Intel и AMD представили решения аппаратной поддержки виртуализации — INTEL VT и AMD-V. Были введены дополнительные инструкции для предоставления прямого доступа к ресурсам процессора из гостевых систем, набор которых назывался Virtual Machine Extensions (VMX).

Уже в 2008 году в нашей стране стали появляться облачные провайдеры. Именно тогда была основана компания ИТ-ГРАД, а также запущено корпоративное облако IaaS. В 2020-ом ИТ-ГРАД — это 12 площадок в России и СНГ, а также более 2000 успешно реализованных проектов миграции в облако.

История интернета поистине необъятна, поэтому мы искренне будем рады вашим дополнениям и комментариям. В следующей статье мы расскажем о становлении сетей в СССР и проектах, которые так и не увидели свет.

День интернета в других странах

В странах Европы и Соединенных Штатах день интернета празднуется 4-го апреля. Существует две версии, почему выбрана именно эта дата.

  • Во-первых, написание 4.04 очень похоже на обозначение ошибки 404, которое означает, что искомая страница отсутствует в web www.
  • Другая версия имеет под собой религиозную основу. Принято считать, что покровитель Глобальной сети – это святой Исидор Севильский, которого канонизировала католическая церковь. Именно 4-е апреля является днем его вознесения.
    В 2000 году кандидатуру Исидора Севильского официально подтвердил и Ватикан. В качестве обоснования своего решения церковь сослалась на использование святым в своих трудах перекрестных ссылок, которые являлись прототипом используемых сегодня гиперссылок. Покровитель всемирной сети в результате открытого голосования, которое было инициировано Ватиканом на курируемом им сайте в интернете. Это означает, что выбор кандидатуры был одобрен пользователями глобальной паутины.

В некоторых государствах день создания интернета празднуют в тот день, когда появились их собственные национальные домены. К примеру, днем интернета на Украине считается 14-е декабря, а Узбекистан отмечает появление всемирной паутины 29-го апреля.

Задачи всемирной сети

Интернет, как всемирная сеть, имеет несколько главных задач, удовлетворяющих своих потребителей. Интернет реализует свои такие основные функции:

  1. Электронная почта. Это самая простая и наиболее полезная функция. Очень многие пользователи всемирной сети используют только электронную почту. Вы можете обмениваться сообщениями, пересылать файлы, получать информацию.
  2. Передача файлов. Еще одна незаменимая и действительно одна из лучших возможностей интернета, это возможность передачи файлов от одного компьютера другому.
  3. Удаленный доступ.

Зарождение виртуализации


Путь к виртуализации проложили такие устройства, как IBM 7044, Compatible Time Sharing System (CTSS), разработанный MIT на базе IBM 704, и суперкомпьютер Atlas.

IBM признала важную роль виртуализации еще в прорывных 60-х вместе с развитием мейнфреймов. Актуальная тогда System/360 Model 67 виртуализировала все интерфейсы оборудования через Virtual Machine Monitor (VMM). Кстати, на рассвете компьютерной эпохи операционную систему называли супервизором, а возможность запуска одной операционной системы на другой операционной системе положило начало термину «гипервизор».

Первая ВМ появилась в супервизоре Atlas’a — суперкомпьютера, созданного в Великобритании совместно Манчестерским университетом Виктории и компаниями Ferranti и Plessey по заказу Правительства Великобритании для использования (а как иначе!) в военных целях.

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Cуперкомпьютер Atlas

Интернет в россии

В Россию Интернет проник в начале 90-х. В те годы ряд университетов приступил к построению собственных компьютерных сетей. На базе Института Атомной Энергетики им. Курчатова сложились две коммерческие компании, которые предоставляли услуги по подключению к Интернету.

В 1993 году сильный импульс для развития Интернета в России дала «Телекоммуникационная программа» от Международного Научного Фонда.

В следующем году, в рамках государственной программы «Университеты России» выделили направление для создания федеральной университетской компьютерной сети. В рабочий строй сеть вступила в 1995 году. В 1996-98 годах построили опорная сеть для науки и высшей школы.

Одновременно с этим возникали и развивались сети коммерческих поставщиков. Вначале они ориентировались на подключение организаций.

В 1998 году Ростелеком образовал совместно с Релкомом компанию Релком — ДС. На сегодня это самый крупный поставщик Интернет услуг в России.

На сегодняшний день в Интернете уже есть огромная база информации на русском языке. По оценкам социологов в конце 1998 года в России около 1.5 миллиона человек были пользователями сети Интернета, при этом более половины из этих пользователей про проживали за пределами Москвы. В 1999 году количество пользователей превысило 5 миллионов человек.

Как и когда появился интернет

Случилось это более 50 лет назад. В далеком 1961 году по заданию минобороны США DARPA (Advanced Research Agensy) начала работу над экспериментальным проектом по созданию сети между компьютерами, для передачи пакетов данных. В первом варианте теоретической разработки о предшественнике современной всемирной паутины, увидевшем свет в 1964 году благодаря Полу Бэрану, утверждалось, что все узлы сети должны иметь одинаковый статус.

У каждого узла есть полномочия для порождения, передачи и получения сообщений от других компьютеров. При этом сообщения разбиваются на стандартизированные элементы, получившие название «пакет». Каждому пакету присваивается адрес, благодаря чему обеспечивается правильная и полная доставка документов.

Эту сеть назвали ARPANET, и она предназначалась для изучения различных вариантов обеспечения надежности связи между разными компьютерами. Она стала непосредственным предшественником Интернета.

В течение восьми лет DARPA работала над проектом и в 1969 году минобороны утвердило ARPANET как ведущую организацию по исследованию в области компьютерных сетей. С этого времени начали создаваться узлы новой сети. Первым таким узлом стал Центр испытаний сети UCLA, после него создали узел Станфордского исследовательского института, узел университета Санта-Барбары и университета Юта, разработали операционную систему UNIX.

Уже в следующем году хосты ARPANET использовали для обмена NCP. А через год в сети уже насчитывалось 15 узлов. 1972 год – это год, в котором были созданы группы разработчиков адресации, нужной для согласования разных протоколов. В это же время разработали протоколы передачи данных TCP/IP.

В 1973 году были сделаны первые международные подключения. Странами, которые вошли в сеть ARPANET, стали Англия и Норвегия. Проект ARPANET оказался настолько успешным, что вскоре множество организаций США, Англии и Норвегии пожелали войти в ее состав.

Уже через 2 годы ARPANET перерос название «экспериментальной» сети, а стал полноценной рабочей сетью. С этого времени ответственность за администрирование ARPANET была взята Defence Communication Agency, которая сегодня носит название Defence Information Systems Agency.

Но развитие ARPANET на этом не остановилось; протоколы передачи данных TCP/IP развивались и совершенствовались. Уже через некоторое время этот протокол адаптировали под общедоступные стандарты, после чего термин Internet стал общепринятым и вошел в бытовое общение.

История интернета на этом только начинается. В 1976 году разработали протокол UUCP, а через три года запустили USENET, работающую на основе UUCP.

Министерство обороны США в 1983 году объявило протокол TCP/IP своим стандартом. Также в этому же году поступило объявление о том, что компания ARPANET закончила свою исследовательскую стадию. Тогда же из ARPANET выделилась компания MILNET.

1984 год стал годом введения системы DNS, а общее число хостов превысило 1000. В следующем году создали NFS, цель которой состояла в том, чтобы построить сеть, которая объединить все национальные компьютерные центры. Значительно ускорилось формирование CSNET в 1986 году, когда начали создавать центры суперкомпьютеров.

Уже к 1987 году число хостов перешагнула за 10 тыс. А в 1988 году NSFNET начал использовать канал T1. Тогда же к NSFNET подключились такие страны как Канада, Дания, Исландия, Норвегия, Франция, Швеция и  Финляндия. В следующем году число хостов стало более 100 тыс.

Не смотря на то, что в 1991 году компания ARPANET прекратила свое существование, всемирная сеть Internet не погибла вместе со своим создателем, а наоборот – стала еще больше, объединила множество сетей в один огромный комок связей. С того времени сеть NSFNET начала использовать для работы каналы T3, которые обеспечивали скорость передачи данных в 44,736 Мбит/c.

В этом же году Интернет отмечал свое 25-летие. В этот год Владимир Левин (российский хакер) атаковал американский Ситибанк. Это показало всему миру что безопасность сети не является 100%, и начались новые разработки различных систем безопасности данных в сети.

Кроме этого, в 1994 году произошло еще два важных события, которые нельзя обойти стороной. Первое событие — разработка средств защиты доступа, второе — лицензирование браузера Mosaic, компании Mosaic Communication Corporation, основанной Джеймсом Кларком. В этом году трафик по всемирной паутине превысил 10 гигабайт/месяц.

В следующем году NSFNET сделала регистрацию доменных имен платной. С 14 сентября 1995 года плата зеа регистрацию была равна 50 долларам. А в апреле этого же года  NSFNET перестала существовать. В результате бурного роста в 1995 году сеть достигла уровня шести миллионов подключенных серверов.

Сейчас ищут техподдержку:  Горячая линия Билайна — связь с оператором, бесплатный номер горячей линии Билайна, техподдержка

В 1996 году началось негласное соревнование между браузерами Netscape и Internet Explorer. А в мире в этот год уже насчитывалось 12.8 млн. хостов и 500 тыс. сайтов.

1997 год стал серьезным испытанием для всей системы паутины. Интернет–ошибка в DNS Network Solutions стала причиной блокирования доступа к миллионам коммерческих Web-сайтов.

Через несколько лет, а именно в 1999 году в строй вошла новая глобальная сеть под название Internet 2, или же — Internet Assigned Numbers Authority. С приходом новой компании сменили 32-битовую систему представления на 128-битовая.

В этот же год была предпринята первая попытка цензуры Интернета. Государственные органы некоторых стран — Китая, Ирана, Египта, Саудовской Аравии, стран бывшего СССР предприняли серьезные усилия, для технической блокировки доступа пользователей к некоторым сайтам и серверам с политическим, религиозным или порнографическим контентом.

В 2001 году число пользователей всемирной паутины превзошло 530 млн. В следующем году это количество выросло до 689 млн. человек.

На сегодняшний день в сети Internet используют почти все возможные линии связи, начиная от низкоскоростных телефонных линий и заканчивая высокоскоростными цифровыми спутниковыми каналами. Также отличаются разнообразием и используемые в Internet операционные системы.

Какое значение имеет интернет для современных пользователей

Сложно представить пользователя ПК, который бы не пользовался сетью Интернет. Но какова же цель этого? Главная идея сети Интернет — это свободное распространение информации. Благодаря Интернету преодолеваются расовые, религиозные, и идеологические барьеры между людьми или странами.

Интернет можно с легкость назвать одним из самых внушительных демократических достижений техпроцесса.

На сегодняшний день Интернет активно служит в качества:

  1. Инструмента принятия решений. Всю информацию Интернет объединяет в организации. Теперь уже нет нужды в собирании разрозненных данных, их отсеивании.
  2. Инструмент организации обучения. Благодаря сети Интернет обмен информацией происходит практически мгновенно, поэтому анализировать информацию и принимать решения теперь можно гораздо быстрее.
  3. Интернет это также и совершенный инструмент связи. Он обеспечивает интеграцию всех подразделений корпорации.
  4. Инструмент сотрудничества.
  5. Инструмент эксперта.
  6. Единый инструмент для изобретений.
  7. Телефон 21-го века.
  8. Инструмент для контроля и совершенствования цикла производства.
  9. Инструмент партнера. Уже нет такой компании, которая бы не имела своей странички во всемирной паутине. Благодаря Интерне вы можете обмениваться информацией со своими партнерами по бизнесу, а также контролировать ведение услуг, общаться с клиентами.
  10. Инструмент маркетинга.
  11. Инструмент человеческих ресурсов.

Кому принадлежит интернет в россии

Русскоязычным сегментом интернета является Рунет. На нем размещаются сайты и прочие сервисы, использующие русский язык для общения и подачи информации. Именно русский язык – второй по популярности язык в интернете. Первое место, безусловно, остается за английским.

Формирование русскоязычного сегмента началось в начале 90-х минувшего века, одновременно со всей остальной глобальной сетью. Использовать термин «рунет» начали в 1997 году. Существуют разные трактовки данного понятия. Некоторые утверждают, что это перечень доменов в зоне ru, а кто-то считает, что это российская интернет – сеть.

Кто изобрел всемирную паутину

Пользователи глобальной сети вряд ли задумываются при входе в интернет, кто придумал его и воплотил проект в жизнь. Если предпосылки для появления интернета были заложены в США, то идея создать глобальную сеть зародилась у исследователей ведущего в Европе исследовательского центра CERN.

Бельгийский исследователь Роберт Кайо являлся коллегой Бернса – Ли по работе в CERN, и так же является одним из основателей интернета.

Не arpanetом единым

Уже в 1983 ARPANET состояла из 4000 хостов. Несмотря на изначальную сугубо военную направленность проекта, многие другие организации посчитали его крайне удобным. Среди них были университеты, предприятия, городские службы и многие, многие другие. Таким образом, ARPANET был разделен на две части: одноименную для гражданских нужд и военную MILNET.

Ранее мы не упоминали о еще одном «брате-близнеце» ARPANET – сети, созданной Национальным научным фондом для проведения научных исследований. Это позволило многим учреждениям, которые ранее не имели возможности подключиться к ARPANET, общаться по «собственным» каналам.

CSNET начала работу в 1981 году и стала предшественницей высокоскоростной NSFNET, объединившей национальные научные фонды и ставшей основой современного интернета.К слову о скорости. Прежних 50-56 кбит/с было крайне мало для эффективной коммуникации внутри постоянно растущей сети компьютеров.

Благодаря компании MCI Corporation, сеть была существенно модернизирована путем внедрения новых линий T-1. Они позволяли передавать данные на скорости до 1,5 Мбит/с. В свою очередь, IBM разработали более совершенные маршрутизаторы, а компания Merit взяла под свой контроль все вопросы по управлению сетью. Уже к концу 1980-х в разработке находилась линия T-3, которая позволяла разогнать сети до 45 Мбит/с.

О существенной части дальнейшей истории интернета мы уже рассказывали ранее. 6 августа 1991 года свет увидела Всемирная паутина, знаменитая World Wide Web, и интернет официально «встал на крыло», а к 1993 году, появился первый графический браузер Mosaic.

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Браузер Mosaic, сыгравший важную роль в популяризации интернета

Первая версия интернета

29 октября 1969 года впервые в мире связали между собой два сервера, находящиеся в разных американских штатах. Эта дата считается днем создания сети Интернет, поскольку передача файлов завершилась успехом. Сеть получила название ARPANET, она стала своего рода основой для создания и развития других коммуникационных сетей.

В 1983 году ARPANET стала использовать для передачи данных протокол ТСР IP, который используется и по сей день. В 90-е годы прошлого века сеть ARPANET была ликвидирована, а ее серверы присоединили к другим сетям.

Первые «дата-центры»

Отдельно скажем несколько слов о первом «дата-центре» в мире. Если пойти на некоторые допущения, первым дата-центром можно считать компьютер ENIAC (электронный числовой интегратор и вычислитель, Electronic Numerical Integrator and Computer) 1945 года, использовавшийся для хранения боевых кодов ядерного оружия, расчетов траекторий полета бомб, прогнозирования погоды на территории СССР.

По правде говоря, история компьютера началась существенно раньше, в 1942-1943 гг., но ввиду новизны проекта и сложностей с получением одобрения от консервативных военных, строительство завершилось лишь в 1945 году. Разумеется, использовался он также в военных целях для произведения расчетов при разработке термоядерного оружия и таблиц стрельбы (а также для предсказания выпадения ядерных осадков на территории СССР на основании прогнозов погоды).

Проект был продемонстрирован публике лишь спустя несколько месяцев после окончания войны и проработал в сумме ровно 10 лет, с осени 1945 по 2 октября 1955, когда состоялось его окончательное отключение. Примечательно, что первыми программистами ENIAC стали девушки:

  • Мэрлин Мельцер
  • Рут Лихтерман
  • Кэтлин Рита Макналти
  • Бетти Джин Дженнингс
  • Франсис Элизабет Снайдер
  • Франсис Билас

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр/ Бетти Джин Дженнингс и Фрэнсис Билас работают с главной панелью управления ENIAC

В чем-то ENIAC действительно был похож на современные дата-центры: отдельное помещение, оборудованное несколькими степенями защиты, ряды стеллажей с лампами, системы питания с резервированием, большой штат обслуживающего персонала и огромная ответственность перед «заказчиком».

Весил ENIAC приблизительно 27 тонн, потреблял 174 кВт энергии и имел тактовую частоту в 100 кГц. Первая компьютерная комната в СССР площадью 60м2 появилась в 1951 году, но это, как говорится, уже совершенно другая история, которую мы затронем в одной из следующих статей.

Кстати, в 1995 году была создана кремниевая интегральная микросхема ENIAC-on-A-Chip размерами 7,44 мм × 5,29 мм, в которой с помощью 250 000 (по другим данным — 174 569) транзисторов была реализована логика, аналогичная ламповому ЭНИАКу.

Однако этот компьютер был лишь похож на дата-центры, ни о какой виртуализации в данном случае речи не шло, хотя эпоха уже позволяла о ней говорить.

Программы в сети

Для полноценной работы с сетью Интернет существует ряд программ, популярных на сегодняшний день. И успешное использование всемирной паутиной возможно только в случае правильного выбора качественного программного обеспечения. Стоит отметить, что давать универсальные советы по этому поводу невозможно, поскольку все зависит от конфигурации вашего компьютера, специфики ваших интересов и операционной системы с которой вы работает.

Но, в любом случае, все программное обеспечение Интернета поделено (условно) на несколько групп:

  1. Браузеры — Microsoft Internet Explorer, Opera, Google Chrome и другие;
  2. Почтовые программы — специальные программы, которые работают для отправки, принятия, просмотра и сортировки электронной почты;
  3. Программы для общения – эти программы предоставляют возможность в режиме реального времени вести переговоры в Сети. Это может быть текстовый режим, аудио или видео обмен: ICQ, Odigo,  Skype,  IPhone, EasyTalk и т.д.;
  4. Программы для работы с файлами.

Естественно, что этот перечень программного обеспечения Интернета не ограничен, он постоянно пополняется и расширяется.

Через океан

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр

Первый телеграфный кабель был проложен по дну Атлантического океана более чем за 100 лет до описываемых событий, в 1857 году. Тем не менее, по ряду причин (отсутствие опыта у участников экспедиции, несовершенная изоляция и пр.) уже через несколько недель этот кабель приказал долго жить.

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Фрагмент первого телеграфного трансатлантического кабеля

К середине ХХ века возникла объективная надобность в прокладке уже телефонных кабелей. Первый телефонный кабель, ТАТ-1, был проложен в 1956 году и прослужил чуть более 20 лет.

Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Фрагмент TAT-1Как зарождалась инфраструктура интернета / Блог компании IT-GRAD / Хабр
/ Первые маршруты пролегания трансатлантических кабелей

До прокладки кабелей из Европы было вполне возможно позвонить в США путем длинноволновой радиосвязи. Тем не менее, эти услуги стоили весьма немало, а качество связи все равно оставляло желать лучшего.

Именно с помощью телефонного кабеля была впервые налажена связь США и Норвегии со скоростью 2,4 Кбит/с по ARPANET.

Таким образом, проект, разработанный военными для военных, стал чем-то большим и постепенно обрел независимость. Спутники, с помощью которых уже в конце 1970-х было налажено трансатлантическое соединение (SATNET), принадлежали уже не ВС США, а консорциуму стран, подключенных к сети.

Еще одним изобретением 70-х стал стандарт Ethernet, разработанный для более удобной организации локальной сети и передачи данных между компьютерами на высокой скорости. Этот стандарт в практически неизменном виде используется и сегодня.

Помимо Ethernet, еще одним важным нововведением 1970-х стал протокол UUCP (Unix to Unix Copy). Он позволял быстро обмениваться файлами между компьютерами под управлением Unix и со временем «превратился» в Usenet, сеть, с помощью которой миллионы людей до сих пор обмениваются новостями, отправляют электронную почту и файлы.

Переломный момент случился уже в следующем десятилетии и фактически создал тот интернет, которым мы сейчас пользуемся. Достаточно будет сказать, что в 1977 году к сети было подключено около 111 компьютеров, а в 1989 их число превысило 100 000.

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (1 оценок, среднее: 4,00 из 5)
Загрузка...

Оставьте комментарий