Если бы все спутники Starlink имели камеры телефонного уровня и простые прицелы, могли бы изображения, обработанные их сетью обработки изображений сверхвысокого разрешения, быть конкурентоспособными?

Я размышлял; Если бы все спутники Starlink имели высококачественные модули камер с качеством мобильного телефона на простых телескопах, можно ли было бы объединить полученные изображения и обработать их таким образом, чтобы сформировать сеть изображений сверхвысокого разрешения?

Может ли что-то подобное иметь какие-то конкурентные преимущества, хотя бы в некоторых случаях?


Соответствующий:

Изображение со сверхвысоким разрешением

https://en.wikipedia.org/wiki/Event_Horizon_Telescope — глобальная сеть радиотелескопов.

Потенциально связанный: может ли объединение изображений позволить этому спутниковому телескопу диаметром 0,25 м достичь разрешения 0,65 м? и что такое камера Periscope для смартфона? И как это работает? а Oppo представляет настоящий объектив с непрерывным зумом для смартфонов. Starlinks не размером с мобильный телефон, а в форме мобильного телефона . Если его нужно интегрировать в плоскую упаковку, будет плоское зеркало с углом 45°.
к вашему сведению, я только что спросил, насколько толсты спутники Starlink?
Это логическое развитие
Удивительный вопрос. Есть ли у спутников Starlink большая свобода в управлении ориентацией? Наивно, чтобы получить сверхразрешение с помощью нескольких датчиков, кажется, что вам нужно одновременно наводить на цель большинство прицелов.
По-видимому, нет пользователя, который напрямую обменивается сообщениями. Просто хотел сказать спасибо за миграцию и т. д. @uhoh.
@mancelpage ya SE действительно сосредоточен на вопросах и ответах на них, а не на нетворкинге или индивидуальных дискуссиях (именно поэтому он мне так нравится). С каждым сайтом связаны чаты, но обычно они не очень активны.
@ 0xDBFB7 Я понимаю, что ты имеешь в виду. Даже относительно близкие спутники под разными углами могут с трудом попасть в одно и то же место, особенно если вышеупомянутая камера перископа настроена на масштабирование. Было бы идеально, если бы камера могла в какой-то степени независимо поворачиваться, хотя бы на мгновение, чтобы максимально использовать тысячи спутников, способных быстро делать увеличенные изображения местоположения за короткий период времени.
Для чего вы хотите его использовать? Смотреть вниз на Землю? (Возможно, таким образом можно было бы сделать что-то полезное, хотя я настроен скептически.) Или смотреть в космос? (В таком случае: нет, это было бы совершенно бесполезно.)
@PeterErwin Мне больше интересны космические наблюдения. Является ли ограничение низким качеством камер/прицелов, масштабируемостью изображений сверхвысокого разрешения или и тем, и другим? Я предполагаю, что нейронные сети могут эффективно обучаться на реальных и смоделированных данных, но, возможно, есть ограничение в том, чтобы набрасывать на них чистые данные, если они на несколько уровней ниже текущих стандартов? Возможно, самый большой из возможных перископов Starlink , настроенный на максимальное масштабирование и масштабируемый?

Ответы (2)

Итак, ограничившись космическими наблюдениями:

Нет, по нескольким причинам.

I. С астрономической точки зрения камеры мобильных телефонов — ужасные устройства для формирования изображений. Сами по себе они имеют крошечные отверстия — обычно 1 или 2 мм в диаметре. Большие апертуры делают две вещи: улучшают максимально возможное угловое разрешение и собирают больше света. Разрешение зависит от диаметра апертуры; Космический телескоп Хаббла (HST) с его главным зеркалом диаметром 2,4 метра имеет разрешение примерно в две тысячи раз лучше, чем у камеры мобильного телефона. Мощность светосилы зависит от площади апертуры; это означает, что HST обладает светосилой примерно 5 миллионов камер мобильных телефонов с апертурой 1 мм.

Теперь вы сказали «на простых телескопах», что подразумевает, что вы используете камеру мобильного телефона только для ее формирователя изображения (датчика изображения и сопутствующей оптики). Но теперь вам придется потратить дополнительные деньги на настоящий телескоп , включая специальную оптику, которая направляет свет в модуль камеры; этот телескоп, вероятно, будет размером не менее метра и массой в сотни килограммов, а значит, он будет не меньше самого космического корабля Starlink.

Есть и другие проблемы, такие как отсутствие выбираемых пользователем фильтров. Камера WFC3-UVIS (УФ + оптическая) на HST имеет около 60 различных фильтров для использования при ответах на различные научные вопросы; датчик камеры сотового телефона не имеет фильтров, за исключением попиксельных фильтров R, G и B, которые есть у датчиков изображения камеры для потребительского использования. Даже если вы добавите модуль фильтра перед модулем камеры, фиксированные попиксельные RGB-фильтры будут означать, что только 1/3 пикселя фактически будет использоваться в данный момент времени (например, если вы выбрали «красноватый» фильтр, свет увидят только пиксели с фильтрами R на пиксель).

Камеры сотовых телефонов также имеют шумную электронику, что приводит к шумным изображениям. Это связано с тем, что типичное использование камеры мобильного телефона включает в себя сцены, полностью залитые светом (во всяком случае, с точки зрения астронома). Дополнительный шум от электроники в таких случаях обычно не заметен. Но если вы пытаетесь наблюдать за слабыми астрономическими объектами, это действительно имеет значение. Астрономические формирователи изображений в видимом свете имеют более высокое качество и охлаждаются до температуры жидкого азота для снижения электронного шума.

II. Создание работающего астрономического космического телескопа — это нечто большее, чем просто установка модуля камеры на спутник. Вы должны быть в состоянии очень точно навести все это на цель и удерживать ее в правильном направлении при съемке изображения, даже если спутник быстро перемещается в пространстве. Для этого вам потребуются вспомогательные («направляющие») камеры и датчики, компьютеры для анализа изображений звезд, видимых направляющими камерами, и вычисления необходимых корректировок, а также некоторые средства вращения спутника, чтобы удерживать его в правильном направлении, с помощью гироскопов . , реактивные колеса или небольшие подруливающие устройства.

III. «Сети изображений сверхвысокого разрешения» — это не вещь, за исключением случая интерферометрических массивов (примером которых является телескоп «Горизонт событий»). Но они работают, сохраняя и комбинируя информацию о фазе входящего света от нескольких телескопов. В случае с радиотелескопами фаза изменяется достаточно медленно, чтобы вы могли записать это и потом скомбинировать на (супер)компьютере. В случае EHT записанные данные за несколько дней наблюдений были настолько объемными, что их загружали на жесткие диски, которые передавались в центральный центр обработки данных.

Оптический свет меняет фазу слишком быстро, чтобы ее можно было записать (и если бы вы могли, как бы вы передали информацию?), поэтому объединение должно выполняться в реальном времени, направляя свет от разных телескопов к центральному инструменту. Таким образом, вам не нужна «камера», записывающая изображения на каждом спутнике; вместо этого вам нужны какие-то средства перенаправления входящего света на специальный центральный спутник, где световые лучи объединяются. Комбинирование должно быть выполнено с исключительной точностью. Это возможно на земле, где ни один из телескопов не движется; на орбите, когда все спутники постоянно движутся друг относительно друга, это было бы кошмарно сложно.

(Обратите внимание, что я ничего не упомянул об использовании «нейронных сетей» или других форм машинного обучения. Это потому, что они были бы бесполезны, поскольку они предназначены для получения правдоподобно выглядящих выдуманных данных, а вам нужны реальные данные — - что на самом деле там в космосе прямо сейчас.)

Спасибо! Ia) Будут ли перископы, упомянутые @uhoh, достойными внимания в какой-либо заметной степени в качестве альтернативы большим громоздким телескопам? Или лучшая реализация все равно будет очень скудной? Ib) Это звучит очень проблематично. Единственным решением было бы несколько камер/перископов с разными фильтрами, либо на разных спутниках, либо несколько на каждый? Сложно в любом случае. Ic) Я действительно очень мало понимаю, как работает изображение со сверхвысоким разрешением, и его ограничения, но я думаю, что снижение шума при сравнении тысяч зашумленных электронных изображений должно быть по крайней мере возможным, верно?
IIa) Если вышеупомянутый перископ осуществим, размер которого соответствует размеру разумной компактной плоской упаковки для спутника (даже если зум все еще отстой для его размера), модуль будет очень дискретным по сравнению с самим спутником. Я уже полагаюсь на гипотезу, что это может быть не так. Но если указанный перископ в значительной степени пригоден для использования, то нельзя ли его вращать независимо от спутника? IIb) Требование дополнительной обработки и датчиков на самих спутниках звучит как серьезное ограничение, если обработка должна выполняться с очень минимальной задержкой. Какова задержка?
IIIa) Это я понятия не имею ни о какой территории, даже больше, чем I и II. Оптические массивы изображений сверхвысокого разрешения, вероятно, были бы лучшей формулировкой, и они могут быть несопоставимы. Следует признать, что в найденных мной примерах массивов камер, обеспечивающих изображение сверхвысокого разрешения, камеры расположены непосредственно рядом друг с другом. Расстояние от каждого спутника усложняет ситуацию, и я не знаю, можно ли из этой сложности извлечь какую-либо дополнительную информацию или выводы — или это только препятствие при обработке изображений спутников, находящихся на некотором расстоянии друг от друга.
@mancelpage Дизайн камеры перископа совсем не помогает. Это позволяет уменьшить поле зрения (эффект телефото), но не меняет размер апертуры, поэтому возникают точно такие же проблемы, когда речь идет об ограничении углового разрешения и светосилы.
@mancelpage Да, в принципе вы можете уменьшить шум, добавив множество изображений, при условии, что вы можете правильно их выровнять (вам все равно нужно убедиться, что все спутники указывают на одну и ту же цель и правильно отслеживаются). Но, как я заметил, вам потребуется около 5 миллионов камерофонов, сложенных вместе, чтобы получить такую ​​же светочувствительность, как у HST , а последний сохраняет все остальные преимущества, включая угловое разрешение.
Я понимаю. В этом есть смысл. Никакое количество призм или зеркал в перископе не может увеличить количество света, поступающего в исходное отверстие, обращенное в космос. Тогда не обойтись без настоящего телескопа. Спасибо за ваше время и за то, что научили меня.
Это интересный пример объединения нескольких «маленьких» камер, когда изображения с отдельных камер объединяются постфактум. Это улучшает сбор света (меньше шума в конечном продукте), но угловое разрешение остается таким же, как у отдельной камеры. Обратите внимание, что телеобъективы = относительно большая апертура, а камеры тщательно выровнены и ориентированы как единое целое. astro.yale.edu/dragonfly/index.html

Этот вопрос, по-видимому, конкретно касается наземных наблюдений, но основные ограничения такие же, как и для астрономических изображений.

Комбинируя несколько изображений, вы можете делать такие вещи, как:

  • Уменьшите шум датчика или помехи от попадания ионизирующих частиц на датчик.
  • Точно так же отклоните переходные процессы, такие как вспышки отраженного солнечного света, пролетающие самолеты и т. д.
  • Комбинируйте изображения с разных ракурсов или в разное время, чтобы компенсировать условия освещения, создавать более контрастные изображения или выделять изменения, вырезать препятствия или создавать 3D-модели.
  • Компенсация сенсора с низким разрешением.

Чего вы не можете сделать, так это увеличить разрешение за пределы дифракционного предела оптики формирования изображения. В лучшем случае вы можете получить лучшее изображение продукта дифракционного размытия оптики.

Можно использовать методы машинного обучения, чтобы угадать, какие функции могут создавать размытое изображение, но на самом деле вы не визуализируете эти функции. Если вы знаете, что транспортное средство относится к определенной марке и модели, вы можете синтезировать более четкое его изображение, но это добавляет информацию к изображению, а не извлекает из него дополнительную информацию. Нейронная сеть будет искать то, на что она была обучена, а не то, что есть на самом деле… в конце концов, вы только что автоматизировали парейдолию. Посмотрите на DeepDream экстремальные примеры этого в действии.

Меня лично больше интересуют космические наблюдения, чем наземные. «В оптическом сверхразрешении [изображение] дифракционный предел систем выходит за рамки». Разве смысл изображения сверхвысокого разрешения не в том, чтобы создавать изображения с более высоким разрешением, чем то, что может дать оригинальная оптика? Чем больше пул данных, тем меньше артефактов от нейронных сетей. Связанный: байесовская индукция за пределами традиционного дифракционного предела
Упомянутые оптические методы требуют таких вещей, как структурированное освещение или прямое зондирование ближнего поля, что делает их подходящими только для микроскопии. И нейронные сети, как я уже сказал, будут выдавать то, на чем они обучены, а не то, что есть на самом деле. Они не извлекают дополнительные детали, они их придумывают.
Есть также массивы камер, непосредственно примыкающих друг к другу, которые, кажется, обеспечивают изображение сверхвысокого разрешения. Я думаю, вопрос в том, является ли это хорошим вариантом использования оптического изображения со сверхвысоким разрешением, а не может ли оптическое изображение со сверхвысоким разрешением преодолеть пределы оптической дифракции , и ваш комментарий выше, в котором говорится, что это не так, вполне может быть правильным.
и все же space.stackexchange.com/a/24422/12102 Идея вопроса заключается в том, что вы можете иметь несколько изображений с каждого из многих направлений. В этом случае некоторые люди действительно утверждают, что конечный продукт после объединения всего может быть лучше, чем простой предел дифракции одного изображения.
Это «размытие» изображения Хаббла должно было компенсировать неправильное заземление главного зеркала. Как отмечается в тексте, он далеко не соответствует дифракционному пределу. С корректировкой оптики Хаббл получает такие изображения: esahubble.org/images/opo0322a .