Гибкие смартфоны без портов с производительностью мощных ультрабуков
2009 — 2019

Проследить путь развития смартфонов и отметить основные тенденции несложно. Во-первых, постоянно растут диагонали: 5.5” Galaxy Note II в 2012 году воспринимался не иначе, как планшет, а сейчас 7.2” Huawei Mate мы считаем просто смартфоном, пусть и немного большим. Но, очевидно, дальше так продолжаться не может — если 7” девайс еще можно поместить в карман джинс, то 8” планшеты уже требуют отдельную сумку, что, очевидно, плохо сказывается на их популярности.

Понимая это, производители стали параллельно уменьшать рамки дисплея: сначала боковые, окончательно убрав их к 2015 году в Galaxy S6 EDGE, в котором экран закруглен и плавно переходит в корпус. После этого принялись за верхнюю и нижнюю рамки: и если с нижней было все просто, так как нажатие на физические кнопки без проблем получилось заменить на жесты и встроить датчик отпечатков в экран, то вот с верхней все не особо хорошо — фронтальная камера до сих пор не сдается, так что она или присутствует в виде небольшой точки на дисплее как у Galaxy S10, или же встроена в корпус и механически выдвигается из него, как в случае OnePlus 7.

В итоге с рамками, в общем и целом, разобрались, и теперь можно купить 6” смартфон с габаритами 5” двух-трехлетней давности, что достаточно приятно, хотя и не всегда удобно — с уменьшением толщины рамок возросло количество случайных нажатий на краях дисплея. Но куда расти дальше? Возможный путь показала Samsung с их Fold и Huawei с Mate X — разумеется, речь идет про гибкие смартфоны.

Эта идея вполне очевидна: раз больше не получается напрямую увеличивать диагональ, а контент этого требует, то почему бы не сделать складной гаджет? Конечно, можно просто пойти купить планшет и не мучаться, но пользоваться им вместе со смартфоном хотят далеко не все, что явно видно на падении их продаж с одновременным ростом диагонали у телефонов.

То, что технология производства гибких OLED-дисплеев сырая, мало кто будет спорить — так, Samsung отложила старт продаж Fold аж на полгода, и сейчас их можно купить только в нескольких магазинах в Южной Корее. Но то, что за такими гаджетами будущее, едва ли кто-то будет отрицать. А что дальше? Технологию производства гибких дисплеев отшлифуют максимум за пару лет, куда развиваться дальше?

Возможным выходом может быть создание смартфона с двумя сгибами. Зачем? Все просто: возьмем тот же Huawei Mate X и разложим его. Что мы получим? Большой 8” дисплей с соотношением сторон 8:7.1, иными словами — большой квадрат. А теперь вспомним современные тенденции на «узкие» мониторы: большая часть потребляемого контента идет в 16:9 или 21:9, и на квадратном дисплее будет или существенно обрезаться, или воспроизводиться с рамками на половину экрана.

Так что добавление еще одного сгиба может решить проблему — в таком случае вполне может получиться 10-11” планшет с привычным и удобным соотношением сторон 16:10. Но, очевидно, на его создание потратят не год и не два, а скорее всего даже больше пяти лет.

Еще одной легко прослеживающейся тенденцией является уменьшение числа портов и кнопок: сначала убрали 3.5 мм разъем для наушников, потом физическую кнопку домой. К тому же флагманы последних нескольких лет имеют достаточно быструю беспроводную зарядку, так что необходимость в USB-C или Lightning также может отпасть. В итоге в начале этого года Meizu представила смартфон Zero, полностью лишенный кнопок и портов. Вместо физической симки используется eSIM, боковые кнопки заменены сенсорными панелями, учитывающими силу нажатия, а заряжается девайс с помощью мощной беспроводной зарядки аж на 18 Вт.

К сожалению, этот девайс до сих пор не продается, и с учетом того, что Meizu сейчас переживает далеко не лучшие времена, он может вообще не увидеть свет. Но все же китайская компания продемонстрировала, что гаджет абсолютно без портов и кнопок вполне возможен, и есть шанс, что через несколько лет такими будут все смартфоны.

Также можно заметить, что некоторые производители смартфонов, такие как Apple, стали всерьез упирать на мощность мобильных CPU и GPU: так, A12X уже сравним с консолями по своим возможностям, и, очевидно, A13 будет еще быстрее. На Snapdragon 845 без проблем и тормозов работают планшеты на Windows, временами дотягиваясь по производительности до уровня младших Intel Core. И с учетом того, что все большее число людей отказываются от ПК в сторону карманных гаджетов — вполне возможно, что через несколько лет мобильные чипы станут настолько быстрыми, что различные игры или ПО будет выходить не только под десктопные ОС, но и под Android с iOS.

Разумеется, прогресс ждет и мобильную фотосъемку: она за последние лет 5 достигла достаточного уровня даже для получения четких снимков в сумерках или ночью, так что немалому количеству пользователей больше не нужна отдельная камера. Какой здесь возможен прогресс? Нет, скорее всего до десятикамерных смартфонов дело не дойдет, но вот получение 3D-модели с моментальной обработкой и наложением подходящего фона уже не выглядит совсем фантастикой.

Каким же в итоге может быть смартфон будущего, если объединить все вышенаписанное? Гибким, с тремя экранами, без портов, кнопок и рамок, с мощным процессором и отличной камерой. К сожалению, рассчитывать на серьезное улучшение времени автономной работы не приходится: технология производства литиевых аккумуляторов за 30 лет на рынке не сильно изменилась, и рассчитывать на серьезно большую плотность хранения энергии через 10 лет не приходится.

Умные изогнутые узкие 8К OLED мониторы с частотой 240 Гц
2009 — 2019

Думаю, многие видели в фантастических фильмах огромные полупрозрачные сенсорные мониторы во всю сцену. Так вот — или это очень-очень далекое будущее, или фантастика: как показала практика, мир еще не готов к сенсорному управлению. Так, еще три года назад Microsoft представила огромный 28” сенсорный моноблок Surface Studio — и, как мы уже знаем, он не взлетел. Как и несколько десятилетий назад, до сих пор самым удобным и точным инструментом работы с ПК является мышь, а отнюдь не палец. И мы уже молчим о полупрозрачности, которая как минимум будет мешать смотреть фильмы из-за объектов за экраном, и диагоналях в пару сотен дюймов, работать за которыми даже с расстояния метра будет мягко говоря не комфортно.

Так что, если вернуться с небес на землю и опять же посмотреть на стремления рынка, то картина мониторов будущего вырисовывается вполне четко. Разумеется, не будет никаких IPS и MVA, а уж тем более TN — только OLED с истинно черным цветом, ибо добиться отсутствия засветов на 30” матрице сложновато, да и требования к качеству изображения постоянно растут. К тому же только эта технология способна обеспечивать честное время отклика в единицы миллисекунд — увы, даже у лучших TFT оно ближе к 10 мс, что много для высокочастотных матриц.

Также очевидно, что будут расти и частоты обновления дисплеев, ибо сейчас даже 100 fps мало кого можно удивить (кроме, разве что, игроков в Control на консолях). При этом цифра больше 240 Гц выглядит уже нелогичной, так как крайне мало людей способны распознавать больше этого количества кадров в секунду. Конечно, уже сейчас есть матрицы с частотой обновления в 300 Гц, но скорее всего большого распространения они не получат: так, разницу между 60 и 120 Гц видят, пожалуй, все. Со 120 и 240 Гц уже гораздо сложнее — нужно приглядываться и сравнивать напрямую, так что 300 Гц и выше выглядит чистым маркетингом.

Что касается разрешения, то мы до сих пор живем в мире FHD, где 4К мониторы и контент для них — все-таки редкость. Конечно, уже есть 8К телевизоры, но фильмов с таким разрешением практически нет, да и ни одна видеокарта не обеспечит в нем приемлемую производительность в играх. Так что в ближайшие несколько лет будет происходить популяризация 4К, а лет через 10, вполне логично, настанет черед и 8К.

А вот физические размеры расти скорее всего почти не будут, и тут причина только в нас самих: мы редко сидим дальше метра от монитора, поэтому диагональ свыше 50-55” на таком расстоянии становится банально избыточной. При этом привычных 16:9 мы, скорее всего, не увидим: в продаже появляется все больше узких мониторов с соотношением сторон 21:9 или даже 32:9, и это вполне объяснимо — на них помещается больше информации, например, можно вывести 2-3 полноценных окна. К тому же игры на них выглядят потрясающе, особенно если матрица изогнутая.

Ну и разумеется мониторы станут умными: они уже сейчас умеют выводить на экран виртуальный прицел или же счетчик FPS, однако вполне очевидно, что в будущем их функционал расширится: например, может появиться автовыбор цветового профиля при заходе в определенное приложение, автоматическая регулировка яркости в зависимости от происходящего на экране и так далее.

И если сложить все вместе, то мы получим следующую картину: топовые мониторы через десять лет будут изогнутыми и узкими, начиненными различными умными фишками и иметь разрешение 8K и быстрые 240-герцовые OLED-матрицы.

Тонкие мощные и автономные игровые ноутбуки
2009 — 2019

Забавная тенденция: смартфоны становятся все больше, а игровые ноутбуки все компактнее. И это легко объяснимо: кто же откажется от ультрабука, который при подключении к зарядке легко способен заменить мощный домашний компьютер в играх или работе?

Так что производители будут и дальше идти в этом направлении, и Asus Zephyrus — лишь первый шаг в этом направлении. Очевидно, что будут создаваться более эффективные кулеры, будут использоваться испарительные камеры и жидкий металл вместо термопасты — ведь даже сейчас можно найти ноутбук с RTX 2080 весом менее 2 кг, так что приятно представить, что нас ждет в будущем.

При этом, разумеется, постоянно растет время автономной работы таких устройств: дискретная видеокарта уже давно умеет отключаться при ненадобности, а процессоры стали настолько энергоэффективными, что уже сейчас есть игровые ультрабуки с 6-ядерными CPU, способные продержаться 5-6 часов при серфинге в интернете. В принципе, это уже неплохой показатель, но велик шанс, что через лет эдак десять его увеличат хотя бы в полтора раза.

А вот игровые «гробы» весом под 5 кило и толщиной в пяток сантиметров скорее всего исчезнут: так, они сейчас обеспечивают всего-то 10-15% прирост производительности в играх в сравнении с более тонкими решениями, что едва ли покрывает разницу в неудобстве их использования в нашем все более мобильном мире.

Apple MacBook перейдут на ARM
2009 — 2019

Компания из Купертино направляет все больше сил на сращивание мобильной iOS и десктопной macOS. Так, теперь под последнюю можно оптимизировать ПО с iPad, а под последний, в свою очередь, выходит все больше полноценных приложений. Так что вполне возможно, что через несколько лет, когда в App Store станет уже достаточно много ARM-совместимого ПО, Apple выпустит первый ноутбук на этой архитектуре.

Причин у Apple делать такой гаджет хватает — в основном это серьезный рост энергоэффективности и производительности ARM за последние годы. Так, текущий A12X работает как минимум не медленнее Intel Core m в 12” MacBook, при этом потребляет куда меньше энергии, в том числе и в режиме ожидания. А ведь такого Mac вполне хватает для серфинга в интернете, просмотра фильмов, редактирования документов и простой обработки фото и видео — а нужно ли что-то еще среднестатистическому пользователю ПК?

Конечно, пока что до уровня топовых Intel Core i7 текущим ARM далековато, но ключевое слово здесь «пока»: если за последние 10 лет решения на архитектуре x86 стали быстрее от силы в 2-3 раза, то вот CPU на ARM нарастили производительность на порядок, а то и два, и не собираются снижать темп. Так что вполне возможно, что через десяток лет они сравняются, и перевод MacBook Pro на ARM будет безболезненным с точки зрения производительности, а вот серьезно увеличившееся время автономной работы точно заметят многие.

Умные беспроводные наушники всех видов
2009 — 2019

Увы, но проводные наушники постепенно уходят в прошлое: все меньше смартфонов оснащено 3.5 мм разъемом, и вполне возможно, что через несколько лет на рынке появится первый ноутбук без оного. Пришедшие ему на замену цифровые Lightning и USB-C, очевидно, никого не устроили — наушники с ними и к другим гаджетам не подключишь, и единственный разъем они занимают, да и моделей маловато. В итоге выбор только один — использование Bluetooth.

Причины этому вполне понятны: современные «синезубые» кодеки типа AptX HD или LDAC обеспечивают отличное качество звука при небольших задержках, причем с учетом достаточно слабых ЦАП в большинстве смартфонов и ноутбуков беспроводные наушники будут звучать с ними даже лучше проводных. Также не стоит забывать про отсутствие провода, который больше не мешается и случайно не выдергивается.

Что же изменится за десять лет? В основном, видимо, стоит ждать скорее количественных изменений, чем качественных: так, подрастет время автономной работы у TWS-наушников, которое сейчас редко превышает 4-5 часов. Будут улучшаться кодеки, снижаться вес, ускоряться зарядка — в общем и целом, вполне ожидаемые изменения.

Единственное, в чем действительно может быть существенный прогресс, так это в умных функциях. Так, сейчас лучшие наушники имеют от силы пару настроек шумодава (типа усиления голосов людей) и простейшие сенсорные опции вида «снял наушник — музыка поставилась на паузу». Разумеется, улучшить это можно… да как угодно: например, интегрировать в наушники направленные микрофоны, которые будут усиливать голос только определенного человека, вашего друга или гида, при этом полностью отсекать голоса остальных окружающих вас людей. Можно добавить интеллектуальное управление громкостью, которое будет анализировать звуки вокруг вас и приглушать музыку при обращении к вам — в общем, тут простор для фантазии просто огромен.

Игровые ПК станут уделом гиков
2009 — 2019

Как мы уже писали выше, наш мир становится все более мобильным: выходят тонкие мощные ноутбуки, развиваются стриминговые игровые сервисы, появляются портативные приставки — все это заставляет продажи ПК падать из года в год.

Особенно большой упор сейчас делается на стриминговые сервисы: так, Google обещает в своей Stadia аж 4К качество буквально за десяток долларов в месяц — согласитесь, далеко не все дома имеют игровой ПК с достаточной производительностью для комфортной игры в таком разрешении, а вот домашний интернет со скоростью в 40-50 Мбит/c даже в России не такая уж и редкость. Поэтому вопросом «а зачем собирать ПК и апгрейдить его раз в пару лет, если есть Stadia» будут задаваться все больше и больше пользователей.

Также свою долю от ПК «откусывают» портативные игровые ноутбуки: зачем иметь два устройства, компьютер для игр и ультрабук для поездок, если они отлично объединяются в одно? Так что велик шанс того, что через лет десять игровые ПК станут уделом богатых гиков — тех, кто захочет играть не в 4К60 на стриминговом сервисе или на ноутбуке, а в 8K240 и будут готовы платить за это большие деньги.

Следующее поколение консолей может стать последним
2009 — 2019

По ровно той же причине есть шанс того, что новый Xbox и PlayStation 5 станут последними полноценными игровыми консолями: думаю, многие консольные геймеры замечали, что под конец жизненного цикла каждого поколения консолей начинаются проблемы с оптимизацией. Это ожидаемо: за 6-7 лет прогресс десктопных CPU и GPU очень значителен, а вот консоли не меняются, что заставляет разработчиков серьезно понижать в играх для них как разрешение, так и графику, и то временами это не спасает от просадок FPS.

Выход тут прост — а почему бы не сделать облачный гейминг? Пользователю достаточно будет купить специальную коробочку долларов за сто, которая будет получать входящий поток данных от сервера, обрабатывать его и выводить на телевизор, а обратно отправлять команды с джойстика. Причем, очевидно, это сделать куда проще, чем в случае с ПК, где есть огромный разброс по комплектующим и элементам управления.

К тому же игры в облаке позволят забыть об ухудшении качества картинки со временем: действительно, все будет зависеть лишь от производительности серверов «по ту сторону экрана», и, очевидно, тем же Sony или Microsoft ничто не мешает постоянно наращивать их мощность.

Планшеты станут нишевыми продуктами
2009 — 2019

Хватает производителей, пытавшихся навязать миру сенсорное будущее: это и Apple в 2010 с их iPad, и Microsoft в 2012 с Surface, и Google с кучей планшетов пяток лет назад.

Итог несколько печален: мощных планшетов на Android больше практически нет, а Surface занимают очень небольшую долю рынка и уже стали нишевыми. Остаются лишь iPad, которые Apple всеми силами старается держать на плаву, делая их компьютерами, но и их продажи стали падать.

Причина в этом проста: тачпад и мышь удобнее пальца. Управлять курсором проще, чем тыкать пальцем в экран. Сенсорное будущее осталось лишь в фильмах.

А ведь стоит помнить о том, что ноутбуки становятся все мобильнее, а смартфоны — все больше, и уже не за горами выход гибких гаджетов. Так что планшетам остается только одно: перебираться на диагонали 10-12”, чтобы, с одной стороны, не конкурировать с гибкими смартфонами, а с другой — чтобы быть компактнее даже самых тонких и легких ноутбуков.

Но даже в таком случае они будут в крайне уязвимом положении: ноутбук все равно будет более удобным в работе, а смартфон более компактным, так что планшетам останется скорее всего нишевое рабочее применение, например, в сфере образования, чтобы выводить большие таблицы или листы A4 без уменьшения их размеров, но при этом не занимать много места на парте, как ноутбуки. Что касается будущего их пользовательского применения, то оно как раз очень и очень туманно.

Power Bank станут не нужны
2009 — 2019

Внешние аккумуляторы — это пример продукта, который активно развился за последние десять лет. Причины этому, думаю, мы все знаем: давно уже прошли те времена, когда КПК жили по 2-3 дня, и сейчас мы радуемся, что батареи смартфона хватает до вечера. Конечно, появилось множество интеллектуальных фич типа режимов энергосбережения, дабы драгоценный девайс продержался хотя бы еще часик, но, очевидно, Power Bank в этом плане куда надежнее и эффективнее.

Но все же есть две технологии, которые вполне могут «закопать» внешние АКБ: это быстрая и беспроводная зарядки. С первой, в принципе, все понятно: даже если вы забыли вечером зарядить смартфон, утром вы буквально за полчаса «покормите» его на 50%, а то и больше. Аналогично и днем: пока вы обедаете, ваш гаджет также может подкрепиться на десяток-другой процентов, что опять же отсрочит момент его отключения. В итоге эта технология стала невероятно популярной, что абсолютно логично: как говорится, клин клином вышибают, и быструю разрядку очевиднее всего компенсировать еще более быстрой зарядкой.

Беспроводная зарядка тут выглядит куда футуристичнее: вам в принципе не нужны провода и зарядные блоки, достаточно положить гаджет на заряжающую поверхность и вуаля, «кормление» пошло. И именно это может получить серьезное развитие в будущем: к примеру, можно встроить такие поверхности в столики в кафе, в рабочий стол дома или в офисе: да куда угодно, где есть ровная поверхность. И вам в принципе не нужно будет носить с собой провода и Power Bank — смартфон будет способен заряжаться практически везде.

USB-C захватит мир
2009 — 2019

Да, именно это нам говорили в году эдак 2015, когда Apple выпустила MacBook с только лишь одним таким портом, и стали появляться первые флагманы на Android с ним же. Итог, думаю, мы все с вами знаем: на данный момент USB-C стал разъемом по умолчанию только в большинстве смартфонов на Android и ноутбуках от Apple. Конечно, он встречается и на дорогих материнских платах, и в дорогих ноутбуках, но скорее в единичных количествах и по принципу «раз так делают все — сделаем и мы». Увы, периферии с этим уже не новым разъемом все еще маловато, и стоит она дорого, так что переходники и док-станции со «старых» портов на USB-C даже не думают уходить с рынка.

Причина этому понятна — legacy, иными словами, мы все привыкли к старым добрым USB 3.0 и HDMI, и желания менять их, платя нередко немалую сумму, есть далеко не у многих (особенно понимая, что придется все равно покупать переходники как минимум на USB-A). Однако все же очевидно, что USB Type C в итоге захватит мир.

Почему? Во-первых, это унифицированная зарядка для большинства ноутбуков и ультрабуков: если в случае со смартфонами все более-менее договорились и стали использовать сначала microUSB, а потом и USB-C, то вот в случае с ноутбуками до сих пор почти каждый производитель использует свой порт, абсолютно несовместимый с другими. А ведь через USB-C можно передать целых 100 Вт — этого вполне хватает даже 15” MacBook Pro, чего уже говорить о более простых ультрабуках. Причем некоторые производители это уже поняли и стали использовать, и речь тут не только о Dell или Apple, но даже и о Xiaomi.

Во-вторых, многофункциональность: вы можете одновременно через один порт подключить и монитор, и клавиатуру, и жесткий диск, и все это будет работать. Увы, через «обычный» USB 3.0 вывести картинку в 4К у вас в принципе не получится. К тому же можно забыть про правило трех попыток (именно столько нужно, чтобы вставить флешку в USB-A) — двусторонность позволяет использовать этот разъем вслепую.

К тому же через пару лет появятся первые устройства с USB4, который будет иметь форм-фактор только USB-C и скорости до 40 Гбит/c — в 8 раз быстрее, чем привычный нам USB 3.0, что позволит подключать по этому разъему даже быстрые SSD-накопители без потери скорости.

В итоге порт оказывается слишком «вкусным», чтобы от него отказываться, так что через десять лет он уж точно станет дефолтным разъемом в большинстве устройств.

VR- и AR-гарнитуры станут такими же популярными, как и джойстики
2009 — 2019

Развитие графики идет по тому же пути, как и развивалась геометрия: сначала мы любовались на 2D, потом, благодаря достаточно быстрому развитию видеокарт, появилось псевдо-3D: наш мозг достаточно легко обмануть, подсунув ему плоские объекты под углом, и он будет воспринимать их в объеме.

В дальнейшем появились 3D-очки, цель которых была одна: различными способами снова обмануть наши глаза, показав им чуть разные картинки, чтобы мозг соединил их в реалистичное 3D-изображение.

Но, очевидно, все стремится к настоящему 3D, когда вы можете как бы физически походить по виртуальному миру. И первыми по-настоящему массовыми VR-гарнитурами стали несколько лет назад Oculus Rift и HTC Vive: они имеют по два монитора для каждого глаза, а также множество сенсоров, позволяющих правильно реагировать на ваши движения и повороты головы — в общем, почти настоящее погружение, только физического взаимодействия с виртуальным миром не хватает.

И, разумеется, с первыми гарнитурами есть много проблем: далеко не каждая видеокарта способна вывести пару картинок в 2K, да и еще с высокой частотой кадров (не менее 90 для ощущения плавности). При этом оказывается, что текущие методы сглаживания, идеально работающие на плоских текстурах, в объеме начинают сбоить, из-за чего теряется реалистичность картинки. Ну и разумеется мешает нагрев и вес шлемов, а также не очень высокое разрешение мониторов (так как они очень близки к глазам, требуется экстремально высокая плотность пикселей). А довершает печальную картину не очень большое количество полноценных VR-играх: да, можно вспомнить Skyrim и Fallout 4, но всего годных проектов от силы десяток, что маловато, из-за чего не очень много пользователей согласны отдавать по 500-700 долларов за такой необычный гаджет.

Конечно, все эти проблемы будут решаться: скоростей Wi-Fi 6 уже вполне хватает, чтобы избавиться от проводов. В будущем появятся видеокарты, для которых вывод игры на пару 4К-экранов со 120 Гц — это не проблема. Разумеется, будет падать стоимость, что приведет за собой всплеск продаж и появление все большего числа VR-проектов, и вполне возможно, что лет через десять игра на обычных плоских мониторах будет вспоминаться как атавизм.

Не стоит забывать и второй вариант развития: зачем тратить уйму ресурсов, чтобы получать картинку, похожую на современный мир, если можно банально дорисовать в нашем мире нужные объекты? Так и появилась дополненная реальность, причем требования для нее настолько низки, что даже не самые топовые смартфоны справляются с построением AR-сцен.

Причем способов развития этой технологии просто множество: это и обучение с помощью интерактивных объектов, и интерактивные игры. Например, на июньской презентации Apple показала Minecraft в AR — думаю, не стоит рассказывать, как сильно эту игру полюбят дети: ведь в ней вы можете как быть снаружи сцены, так и перемещаться внутри. Причем самостоятельно — нет никаких игровых персонажей, вы выполняете их роль.

Так что вполне возможно, что через пару лет дети будут играть в тот же Minecraft не сидя кружком с планшетами, а бродя по площадке и вращая ими во все стороны. А через пять, может десять лет, велик шанс, что AR-гарнитуры будут раздаваться школьникам в развитых странах.

IPv6 станет самым популярным протоколом
2009 — 2019

Думаю, большая часть пользователей интернета временами видела необычные сочетания цифр: например, 95.213.153.203. Это — так называемые IPv4 адреса, их имеет любой пользователь интернета и каждый сайт: например, указанный выше относится к iguides.

Но тут есть одна проблема, которую поняли еще в начале нулевых: всего возможных IPv4 адресов, очевидно, 256 х 256 х 256 х 256 = 4,294,967,296. А людей на Земле уже больше 7 миллиардов, а сайтов и того больше. Конечно, были придуманы разные уловки типа NAT, когда за одним белым IP могут «прятаться» сразу несколько серых, но в общем и целом к середине 2019 года проблема стала очень серьезной: так, многие регуляторы выдают IPv4 адреса в крайне небольших количествах и в порядке живой очереди, из-за чего цены на них на черном рынке сильно поднялись.

Есть ли решение проблемы? Разумеется — так называемые IPv6 адреса. Выглядят они уже сложнее, например, 2001:0db8:11a3:09d7:1f34:8a2e:07a0:765d. Причем их общее количество — 2^128: только для записи этого числа потребуется аж 38 цифр! Очевидно, такого количества адресов хватит на очень долго: даже если население Земли вырастет на порядок, все равно каждому достанется многие миллиарды миллиардов адресов.

Тестирование этого протокола началось еще в 2008 году, а в 2012 его запустили для обычных пользователей и сайтов. Но, что вполне ожидаемо, весь интернет функционирует по принципу «работает — не трогай»: пока худо-бедно хватает IPv4 адресов, развитие IPv6 происходит достаточно вяло, и на данный момент лишь 14% сайтов имеют такие адреса.

Однако, с учетом того, что проблема выдачи IPv4 адресов в последнее время сильно усугубилась — очевидно, IPv6 будет развиваться все сильнее, и логично ожидать, что через лет десять он станет доминирующим протоколом, а IPv4 — атавизмом, отжившим свое.

Начнется активное развертывание сетей 6G
2009 — 2019

Когда в конце 90-ых появился GPRS, это считали чудом: можно было выйти в интернет прямо со своего телефона! Появившийся ближе к середине нулевых EDGE также восприняли с теплотой — до сих пор хватает мест в мире, где выход интернет возможен лишь благодаря этому протоколу со скоростью зачастую всего в десятки килобит в секунду, так что про картинки и уж тем более видео можно забыть.

Но технологии не стояли на месте, и в конце нулевых пользователи получили 3G с терпимым пингом в сотню миллисекунд и скоростью, хватающей для просмотра видео как минимум в 360p — и это стало настоящим прорывом, появилось достаточное количество пользователей, выходящих в интернет только с 3G-модемов.

Ну а про LTE рассказывать, думаю смысла нет: в большинстве городов России он есть, позволяя зачастую смотреть онлайн даже 4К видео, более того — благодаря пингу в несколько десятков миллисекунд он и для онлайн-игр подходит!

Новый протокол, называемый 5G, только-только стал использоваться коммерчески (хотя некоторые небольшие страны, такие как Монако, уже имеют 100% покрытие), и, в общем и целом, он привнес количественные изменений: так, скорость скачивания выросла до нескольких гигабит в секунду, и теперь к одной вышке может «цепляться» несколько тысяч устройств, так что больше не будет проседания скорости интернета на стадионах или в других местах большого скопления людей.

Но что дальше? Очевидно, что в течении 3-5 лет этот протокол окончательно «допилят», он появится в большинстве стран мира и смартфоны с поддержкой 5G будут продаваться за пару сотню долларов. Казалось бы — все, расти дальше некуда?

Разумеется, есть куда: конечно, стандарт 6G еще не утвержден, но это не значит, что он не разрабатывается. Предполагается, что он будет работать в диапазоне нескольких сотен гигагерц, что позволяет достигать скоростей в терабиты в секунду. Причем с учетом того, что сигнал на такой частоте отлично гасится даже рукой, смартфоны будут иметь десятки или даже сотни небольших антенн по всему корпусу и даже в дисплее.

К тому же есть шанс, что 6G окончательно убьет Wi-Fi: дальность действия базовой станции с такими частотами едва ли будет превышать несколько десятков метров, что сравнимо с покрытием обычного домашнего роутера, так что дабы не иметь две схожие технологии вместе, Wi-Fi может уйти с рынка.

Но, конечно, эти планы даже не на год и не на пять лет — скорее всего лишь через десять лет, когда появится стабильное покрытие 5G во всем мире, примут спецификации и начнут разворачивать сети 6G.

Спутниковый интернет станет привычным
2009 — 2019

Легко рассуждать об LTE и 5G, живя в крупном городе России или Европы. Но стоит помнить, что на Земле хватает мест, где единственный способ получить хотя бы какой-нибудь интернет — это использовать базовую станцию обмена данными со спутниками. Спутниковый интернет сейчас используется и на кораблях, и в отдаленных регионах России, и на различных островах Тихого океана — да даже банально отъехав на сотню километров от родного города есть шанс увидеть табличку «Нет сети» на своем смартфоне.

Сейчас спутниковый интернет сложно назвать дешевым и быстрым: реальные скорости редко превышают десяток мегабит в секунду, стоимости только начинаются от пары тысяч в месяц, да и честного безлимита можно не ждать: зачастую после десятка-другого скачанных гигабайт скорость будет «резаться». К тому же с учетом того, что многие спутники летают на высотах в десятки тысяч километров — ждать пинга меньше полсекунды не приходится. Так что очевидно, почему такой интернет до сих пор не особо популярен для обычных пользователей.

Но все меняется к лучшему: сейчас разрабатываются и тестируются как минимум две глобальных системы спутникового интернета, OneWeb и Starlink. Причем количество спутников в них будет превышать несколько сотен или даже тысяч, то есть покрытие будет по всей земле. К тому же высоты их полета не будут превышать полутора тысяч километров, а в некоторых случаях это будут всего лишь сотни километров, так что вполне реально получить приемлемую задержку ниже сотни миллисекунд и скорости в несколько десятков мегабит. К слову, обе компании обещают, что стоимость терминалов для подключения к спутниковому интернету не превысит пары сотен долларов, а трафик будет безлимитным — собственно, именно это может сделать такое подключение популярным у обычных пользователей в отдаленных уголках земного шара.

Конечно, на запуск и развертывание сети из сотен спутников уйдут годы, к тому же и на Земле придется построить множество точек, «приземляющих» трафик. В итоге не стоит ожидать доступного спутникового интернета раньше чем через 5 лет, но вот шанс того, что через десяток лет вы сможете смотреть YouTube в 4К из сибирской тайги в обнимку с медведем, достаточно велик.

Умные дома перестанут удивлять
2009 — 2019

Думаю, многие видели в фантастических фильмах, как люди будущего попадают в дом, просто прикладывая палец к ручке двери, после чего сразу начинает кипятиться чайник, включается свет и женский голос желает вам приятного вечера и начинает зачитывать новости.

Конечно, это уже далеко не фантастика: тем же охранным системам, звонящим при случае владельцу или спецслужбам, далеко не десяток лет. Да и возможность набрать ванну горячей воды прямо со смартфона еще до того, как вы попадете в квартиру, тоже не шибко удивляет.

Но, конечно, у умного дома, как и у любой другой относительно свежей технологии, хватает проблем. Во-первых, это высокий порог вхождения: для работы с доброй половиной протоколов нужно уметь кодить, а другая половина не даст большой интеграции. Во-вторых, это стоимость: самые простые умные выключатели уже могут стоить под тысячу рублей, а полный комплект для двухкомнатной квартиры с хабом легко заходит за полсотню тысяч. В-третьих, для полной интеграции нужно продумывать умный дом еще на стадии ремонта.

В итоге нет ничего удивительного в том, что мы до сих пор руками щелкаем выключателем, если нам нужен свет — но, конечно, все активно меняется к лучшему: появляется все больше компаний, готовых сделать умный дом под ключ, активно развивается лишь пара протоколов, и те идут в сторону совместимости друг с другом, так что через несколько лет не придется думать, будет ли эта умная лампа работать со всей системой, или нет. Ну и разумеется будет падать стоимость, в основном благодаря заходу на этот рынок китайских компаний, предлагающих существенно более низкие цены.

В результате велик шанс, что через десяток лет умный дом станет достаточно популярным и будет встречаться в том или ином виде во многих квартирах — но, конечно, для полноценной интеграции и объединения их в общедомовую систему потребуется все же куда больше времени, особенно в России.

Произойдет массовое отключение 2G-сетей
2009 — 2019

История показывает, что через некоторое время после появления новой технологии та, которую она замещает, уходит с рынка. Так, параллельный и последовательные порты в начале нулевых заменил USB. Вместо 30 pin у подавляющего большинства пользователей мобильной техники Apple уже давно Lightning.

Аналогичная ситуация происходит и с мобильными сетями: задумайтесь, ведь за последние несколько лет мы привыкли считать значок EDGE на экране смартфона отсутствием интернета, да и видим его достаточно редко. Более того — в Японии с их большой плотностью населения количества вышек 3G и LTE уже столько, что операторы полностью отключили 2G: им банально пользовалось меньше 1% абонентов, что делало их эксплуатацию просто невыгодной.

Так что нет ничего удивительного в том, что операторы по всему миру через некоторое время начнут отключать 2G-сети: сначала в крупных городах с хорошим покрытием новых стандартов связи, а потом и в регионах. К тому же скорее всего через несколько лет появится первый смартфон, несовместимый с 2G: это как минимум упростит антенны, которых и так с приходом 5G стало слишком много, да и модему будет проще выбирать сеть.

Разумеется, весь процесс затянется на долгие годы — ведь только 2G способен покрывать одной вышкой области площадью в десятки квадратных километров, что для протяженных стран типа России или даже США очень актуально. Но вполне можно предположить, что в крупнейших городах мира через десяток лет Nokia 3310 окончательно перестанет работать.

Проводные подключения станут редкостью
2009 — 2019

Наш мир становится все более и более беспроводным: вспомните, когда вы последний раз обновляли систему на iPhone при помощи iTunes, или же использовали флешку для переноса данных. А подключали ли вы вообще ноутбук к сети при помощи Ethernet-кабеля?

С развитием быстрого беспроводного интернета проводное соединение перестало быть нужным: действительно, зачем закачивать на смартфон фильм с компьютера, если его можно посмотреть онлайн по LTE? Зачем обновлять систему и приложения при помощи компьютера, если по Wi-Fi это зачастую можно сделать и также быстро, и куда удобнее? И я уже молчу о том, что заливание тяжелых файлов в облако с расшариванием ссылки в соцсетях давно уже заменило собой флешки.

А с учетом того, что беспроводной интернет становится все быстрее, и что на скоростях 5G фильм в FHD-качестве будет скачиваться всего пару минут, вопрос о необходимости проводных соединений отпадает сам собой.

Разумеется, останутся ситуации, когда мы будем пользоваться флешками и проводами: к примеру, едва ли через десяток лет ноутбуки будут массово использовать беспроводную зарядку, да и те же iPhone требуют физического подключения при низкоуровневой прошивке через DFU. Но в большинстве своем кажется вполне разумным, что через десяток лет мы забудем, что такое внешние жесткие диски, как уже забыли про то, что такое дисководы.

SSD заменят жесткие диски
2009 — 2019

Жесткие диски — одни из старейших устройств для хранения компьютерных данных, пожалуй древнее их только перфокарты. Так что нет ничего удивительного в том, что в 90-ые годы именно их стали активно использовать в пользовательских ПК, и до сих пор огромное количество ноутбуков и компьютеров ими комплектуются.

Но прогресс не стоит на месте: мы все привыкли к почти мгновенному отклику смартфонов в конце нулевых, так почему мы должны ждать с десяток секунд, пока ноутбук с HDD соблаговолит выйти из сна? К тому же в то время стали активно развиваться сверхтонкие ноутбуки, поставить в которые жесткий диск было сложновато.

Именно так и началась экспансия SSD в пользовательские компьютеры: если в середине нулевых они имели мизерные объемы при огромной цене, что делало их покупку уделом гиков, то последние лет 5 они стали нормой даже в не самых дорогих устройствах, так как цена за гигабайт снизилась до доступного уровня, и даже самый простой твердотельный накопитель серьезно улучшает отзывчивость ПК.

При этом надежность SSD серьезно выросла: теперь даже недорогие накопители с дешевой памятью зачастую выдерживают под 100 ТБ перезаписи, чего хватит обычному пользователю как минимум на десяток лет — далеко не все жесткие диски доживают до такого солидного срока.

Ну и не стоит забывать, что цены на твердотельные накопители продолжают падать, и самые простые решения на 120 ГБ можно найти лишь немногим дороже 1000 рублей, что позволяет их ставить в максимально дешевые ПК и ноутбуки. А с учетом того, что снижение цен на них продолжится, современные системы требуют все более и более быстрых накопителей и к тому же активно развиваются облачные хранилища, вполне логично предположить, что через десять лет жесткие диски будут использоваться разве что гиками для хранения огромных объемов информации, которым не нужна высокая скорость чтения или записи (например, фильмы), а обычные пользователи будут массово использовать только SSD.

Трассировка лучей в играх станет привычной технологией
2009 — 2019

Не все знают, но математически технология трассировки лучей в пространстве для компьютеров была описана еще в 80-ых годах, но после этого ее отложили в долгий ящик. Оно и понятно — для правильного построения теней и отражений зачастую требуется обработать под десяток миллионов лучей в секунду: разумеется, видеокарты тех лет на это не были способны.

С развитием компьютерной графики трассировку лучей стали использовать для получения реалистичных изображений в фильмах, и уже тогда стало понятно, что это крайне трудоемкий процесс: например, на рендеринг всего лишь одного кадра Трансформеров зачастую требовалось несколько десятков часов! Конечно, не нужно исключать тот факт, что это время тратилось не только на просчет лучей, но все же этот процесс отъедал от него львиную долю.

В итоге лишь год назад Nvidia представила видеокарты семейства RTX, имеющие аппаратные блоки для трассировки лучей — и то, как в итоге оказалось, при помощи этой технологии обрабатывалась в лучшем случае треть кадра, причем использовалась она в разных играх для просчета чего-то одного: где-то это тени, где-то это отражения. Причем давалась эта работенка новым видеокартам крайне нелегко, количество кадров в секунду при активации новой технологии временами падало в два, а то и три раза. Более того — попытки запустить игры с «RTX on» на видеокартах предыдущего поколения приводили зачастую к полной неиграбельности: думаю, мало кто согласится проходить Metro Exodus на GTX 1080 Ti с 15-20 fps, причем не в 4К, а обычном FHD.

А если вспомнить, что в Quake 2 RTX Edition, где можно использовать честную трассировку для всего кадра одновременно и для теней, и для отражений, RTX 2080 Ti захлебывается даже в 1080р — нет ничего удивительного в том, что достаточное количество пользователей ругают эту технологию и считают огромное падение производительности слишком высокой платой за достаточно несильное улучшение качества картинки.

Но, думаю, мало кто сомневается в том, что за трассировкой лучей будущее. Конечно, RTX 2000 являются лишь в пробным камнем, и игровые движки пока плохо умеют работать с этой технологией. А с учетом того, что новые консоли будут уметь работать с RT на аппаратном уровне, да и Nvidia в новом поколении видеокарт скорее всего учтет все ошибки и серьезно поднимет производительность, есть шанс, что лет через 5 появится первая игра, которая будет в обязательном порядке требовать наличия в системе видеокарты с поддержкой этой технологии. Ну а лет через десять на игры, которые не будут уметь с ней работать, скорее всего будут смотреть как на архаизмы.

Появятся первые гибридные серверные квантовые компьютеры
2009 — 2019

Думаю, ни для кого не секрет, что цикл кремниевых процессоров подходит к своему логическому завершению: начавшись более 50 лет назад, CPU тогда зачастую удваивали свою мощь раз в пару лет, а сейчас мы радуемся увеличению производительности в лучшем случае на 10-15% за поколение. И улучшения ситуации ждать не стоит, ибо каждый новый техпроцесс берется с боем: так, лет пять назад Intel обещала 7 нм еще в прошлом году, а в итоге ее 10 нм процессоры только-только вышли на рынок. Так что дальше будет только хуже, и, разумеется, ученые и инженеры ищут выход из сложившейся ситуации.

Конечно, можно заменить кремний на другой полупроводник, но это лишь отсрочит неизбежное на несколько лет. Поэтому нужно переходить к чему-то абсолютно новому — например, к квантовым компьютерам.

Они качественно отличаются от обычных ПК тем, что работают не с битами, имеющими фиксированное значение 0 или 1, а с кубитами, которые имеют одновременно значение и 0, и 1. Это позволяет, к примеру, моментально решать задачи по подбору пароля — для взлома PIN-кода на вашем iPhone понадобится всего-то 4-6 кубитов: с учетом того, что современные квантовые компьютеры оперируют уже десятками кубитов, ваши данные в опасности (разумеется, нет).

Конечно, до коммерческого применения квантовых компьютеров еще далеко не один год: до сих пор есть проблемы с ошибками в вычислениях, требуется создавать определенные рабочие условия и после каждого вычисления вновь воссоздавать всю систему. К тому же, очевидно, обычные языки программирования на таких процессорах не работают, так что нужно писать новые.

Сколько это займет времени — сказать сложно, но давайте посмотрим на прогресс за последние десять лет: если в 2009 году лучший квантовый компьютер имел лишь 2 кубита в своем распоряжении, то в 2018 Google увеличила это число в целых 36 раз, при этом снизив число ошибок в вычислениях «всего» до 1%.

Так что есть шанс, что лет эдак через десять появятся первые серверные гибридные квантовые процессоры: они будут иметь обычный кремниевый CPU, но при этом для некоторых типов вычислений будет подключаться специальный квантовый блок. Разумеется, стоить на первых порах они будут просто космических денег, но и считать в некоторых случаях будут на много порядков быстрее самого быстрого «кремния».

Ноутбуки, поддающиеся апгрейду, станут диковинками
2009 — 2019

Миниатюризация техники, очевидно, имеет не только положительные аспекты в виде сниженного веса или размеров — оборотной стороной медали является снижение возможностей по самостоятельному апгрейду.

Вспомните ноутбуки начала нулевых: да, обычно это были чемоданы, носить которые каждый день было не очень-то и легко. Но ведь в них зачастую менялось все: дохлый Celeron можно было заменить на двухпоточный Pentium, что местами вдвое поднимало производительность. Припаянная ОЗУ? Да о чем вы, как минимум пара слотов была практически во всех ноутбуках того времени, и мы уже молчим о том, что замена накопителя на более емкий была абсолютно стандартным процессом.

А теперь давайте заглянем в современный MacBook. Процессор припаян — увы, последние лет 7 это стало нормой. ОЗУ тоже распаяна и не меняется: уже менее привычно, такую тенденцию взяли разработчики ультрабуков всего несколько лет назад. Но неменяющийся SSD вызывает очень много вопросов. При этом, думаем, не стоит говорить о том, что благодаря чипу Apple T2 большая часть серьезных ремонтов теперь может проводиться лишь в авторизированных сервисных центрах компании, что влияет на цену отнюдь не благотворно.

Конечно, MacBook пока что скорее исключение в плане невозможности апгрейда, но хорошо видно, что все большее число производителей ноутбуков следуют за Apple: так, за последние пару лет популярные ультрабуки от Dell, Asus и Xiaomi лишились возможности увеличения объема ОЗУ — приходится сразу брать модель с большим объемом памяти, за которую компании обычно требуют немалые деньги.

Так что не будет удивительным, если через несколько лет ультрабуки на Windows потеряют возможность замены накопителя, тем самым став полностью одноразовыми устройствами, а ноутбуки, которые становятся все более и более компактнее, в конечном итоге последуют за ними. А уж лет через десять ультрабук, у которого можно будет заменить SSD или же нарастить ОЗУ, вполне может иметь шанс стать редкой диковинкой.

Умные линзы и очки станут популярными
2009 — 2019

Опять же, такие устройства вы знаем скорее по фильмам с Джеймсом Бондом или же с Тони Старком: гаджеты, которые позволяют показывать нашим глазам больше, чем мы видим сами, неоценимы в их работе. И пять лет назад Google решила сделать фантастику явью, представив свои умные очки Glass.

Идея, конечно, была максимально крутой: небольшой экранчик, который абсолютно не загораживал обзор и был способен выводить практически любую текстовую и визуальную информацию. Встроенная камера, позволяющая делать фото, не доставая смартфон из кармана. Управление при помощи отслеживания взгляда — в общем, настоящий гаджет из будущего.

Но, как мы уже знаем, такой девайс не взлетел, и причин тут много: это и смешное время автономной работы, всего пара часов, и быстрый перегрев при запуске тяжелых приложений, и низкая надежность (одно падение и можно идти за новым), и цена в 1500 долларов — напомним, это было 5 лет назад, когда iPhone стоили вдвое дешевле.

Но что мы видим? Большая часть проблем — чисто количественные: низкое время автономной работы? Можно увеличить объем аккумулятора или использовать более энергоэффективный CPU, благо проблем с ними сейчас нет, к тому же это решит и проблему с перегревом. Да и стоимость сейчас будет куда ниже, ведь по факту сравнимая по возможностям электроника встречается в различных смарт-часах и браслетах, которые стоят зачастую на порядок меньше, чем Google Glass.

Так что нет ничего удивительного в том, что компании продолжают развивать это направление, причем в более интересной области — а именно разрабатывают умные контактные линзы. Так, современные технологии уже позволяют встраивать в мягкие линзы толщиной всего лишь в пару сотен микрометров гибкие батареи и кремниевые чипы — это доказали полгода назад инженеры передового французского технологического университета IMT Atlantique. И возможностей развития здесь масса: это и контроль уровня сахара в роговице, что оценят диабетики, и вывод важной информации со синхронизированного смартфона, и даже создание фотографий после моргания (этим занимается сейчас Samsung) — и, что самое главное, ценник на такие линзы будет существенно ниже, чем на Google Glass.

Конечно, пока это все еще мечты — так, французы хотят начать клинические испытания лишь в следующем году — но с учетом того, что все большее количество людей имеет плохое зрение и вынуждено носить линзы, многие из них не откажутся приобрести вместо них умный гаджет, так что логично предположить, что через десять лет умные линзы станут достаточно популярными.

Нейросети будут окружать нас повсюду
2009 — 2019

Искусственные нейронные сети последние несколько лет у всех на слуху, и это не удивительно — то, что они делают, можно охарактеризовать лишь одним словом: магия. Хотите увидеть себя в старости? Пожалуйста. Есть желание раздеть Скарлетт Йоханссон? Нет ничего проще. Создать пейзаж по трем мазкам краски? Изи.

Но, разумеется, кроме баловства нейросети способны на очень многое: например, сейчас многие химические элементы сначала теоретически рассчитываются суперкомпьютерами, которые проверяют их свойства, и если они будут особенными, то за дело берутся ученые. Но в большинстве своем полученные соединения абсолютно бесполезны — и нейросети вполне могут снизить их количество, повышая эффективность работы. Их начинают все больше использовать игроки на финансовых рынках: «обдумывая» курс валюты за прошлый год, они способны предсказать курс на завтра. Их уже используют для получения более качественных переводов: думаю, многие заметили, как Google Translate за последние несколько лет серьезно улучшил читаемость и точность переведенных текстов.

И это лишь некоторые из возможных применений, на практике их возможности близки к безграничным. Поэтому, очевидно, их будут использовать все активнее и активнее в абсолютно различных областях, начиная от агропромышленности и заканчивая анализом изображений, так что следующее десятилетие вполне может пройти под эгидой «внедряем нейросети везде где можно и нельзя».

Электронные SIM-карты вытеснят обычные
2009 — 2019

Забавно, но миниатюризация коснулась даже SIM-карт, которые и так достаточно небольшие — за, исключением, пожалуй, первоначального формата SIM: думаете, карточка размером с кредитку, из которой вы выламывали micro или nano SIM, сделана для удобства? Как бы не так, это первоначальный стандарт SIM, который практически перестали использовать ближе к концу девяностых.

Но, в общем и целом, уменьшения после mini SIM идут уже просто ради самого уменьшения (на радость работникам компьютерных магазинов, которые обрезали симки за деньги) — едва ли лишние пара кубических миллиметров внутри смартфона на что-либо повлияли. Однако последние несколько лет назад началась качественные изменения, сродни появлению физических SIM-карт в 90-ых: разумеется, речь идет о eSIM.

Что это такое? По сути это такой же чип, но распаянный на плате внутри гаджета. Он выполняет ровно такие же функции, имеет личный идентификационный номер и в общем и целом может без проблем работать в большинстве современных сотовых сетей. Тогда в чем его плюс? В том, что если физическая SIM намертво привязана к одному оператору, то eSIM может хранить в памяти данные хоть десятка операторов, и вы вольны переключаться между ними как вам вздумается.

И вот это действительно классное нововведение: помните, как вы покупали в аэропорту симки местных операторов, чтобы не отдавать сотни рублей в день за звонки в роуминге? Теперь это все в прошлом — вам всего лишь нужно в пару кликов выбрать необходимого оператора в настройках. Но, конечно, на практике все несколько сложнее.

Во-первых, это проблемы с законодательством в некоторых странах, в том числе и России — все же законы писались применительно к физическим симкам. К счастью, в основном правительства идут навстречу пользователям, так что в течение нескольких лет, скорее всего, в большинстве стран никаких проблем с использованием eSIM не останется.

Во-вторых, все зависит и от операторов, которые должны написать специальные настройки для электронных SIM-карт, и в некоторых случаях доработать и сотовую сеть. С этим тоже не все так просто: в России, например, полностью готов и работает с eSIM только Tele2. Конечно, как только появится официальное разрешение использовать eSIM, большая часть операторов все же подтянется, но на это опять же может уйти до нескольких лет.

Но если брать перспективу на целых десять лет вперед, то тут все очевидно: eSIM будут доминировать, и скорее всего разъема для обычных симок в смартфонах тогда уже не будет, а смотреть на них будут как сейчас на CD-диски.

4 комментариев

+13Кевин 13 сентября 2019 в 15:30
Забавная тенденция: смартфоны становятся все больше, а игровые ноутбуки все компактнее- видимо в итоге дойдут до компромисса, что-то среднее между телефоном и ноутбуком, маленькое как смартфон и мощное как игровой ноут )
–1
Ответить
-29NorWho13 сентября 2019 в 15:33
возможно всё перенесут на облако, игрок будет как пользователь, чтобы возможность была играть с любого устройства не требующего мощного железа.
+1
Ответить
+1elfesa15 сентября 2019 в 05:19
Спасибо, объёмно и информативно, очень интересно было читать!
+1
Ответить
+440Oskarr15 сентября 2019 в 08:50
На хрен облака, на хрен нейросети. Не хрена доверять хрен знает кому.
0
Ответить