Правила игры просты: чем больше данных вы можете показать конечному пользователю и чем удобнее к ним доступ, тем больше вы сможете показать сопутствующей рекламы и, в конечном счете, заработать денег. Современные средства позволяют генерировать данные быстро и в большом количестве, однако здесь появляется и ряд новых проблем. Остановимся на некоторых из них:
Развитие концепции открытости ПО и данных, получившее толчок благодаря прогрессу Интернета, не обошло стороной и геопространственные данные. Как и в случае с программным обеспечением, сообщества, продвигающие открытые базы пространственных данных, "противопоставили себя" крупным корпорациям, вкладывающим огромные ресурсы в системы сбора информации и имеющим обыкновение продавать одни и те же наборы данных по несколько раз.
В современном мире идея о том, что сведения об улицах, по которым все ходят, не принадлежат общественности, рано или поздно должна была показаться комуто неправильной. Что и случилось — появился OpenStreetMap. Каждый, кто имеет GPS, может пройти по знакомым улицам и отправить результат в общую базу данных, где не только конкретная репрезентация, но и исходные пространственные данные доступны любому пользователю.
Этот процесс, названный краудсорсингом (crowdsourcing), приобрел широкие масштабы. За полтора года существования проекта OpenStreetMap количество зарегистрированных пользователей перевалило за 45 тысяч.
Интересно, что подобные "ключи" к общественности пытаются подбирать и коммерческие компании, активно использующие краудсорсинг для исправления ошибок в своих картах (не правда ли, похоже на сваливание на пользователей ловли ошибок в ПО?). Корпорация Google, больше года использующая систему участия, при которой вы можете исправить ошибки геокодинга, сделала следующий шаг в этом направлении и представила систему MapMaker, фактически дублирующую OpenStreetMap.
Конечно, это не могло не вызвать бурю раздражения в мире opensource-геоданных, ведь результат вашей работы оказывается фактически принадлежащим Google!
Это выглядит тем более странно, учитывая, что Google поддерживала первую конференцию OpenStreetMap. На фоне этих событий действия другого гиганта, Yahoo, выглядят куда более логичными.
В 2006 году Yahoo разрешила использовать свои данные высокого разрешения для оцифровки дорожной сети и других объектов и размещения результатов в открытом доступе в базе OpenStreetMap, благодаря чему включиться в работу надобщей картой теперь может любой, не выходя из дома.
Один из самых частых вопросов, возникающих у нас при изучении интернетресурсов, — насколько представленная информация корректна?
Неуверенность возрастает, как только мы переходим от простого любопытства к использованию данных для решения профессиональных задач. Могу ли я быть уверен в том, что авторы ресурса проверили опубликованную информацию? откуда она появилась? в какой степени я могу ей доверять? Сегодня не многие пользователи Интернета задумываются об источниках пространственной информации и качестве картографических данных, поэтому мы ожидаем, что уже в недалеком будущем их постигнет глубокое разочарование: лишь немногие ресурсы могут похвастаться заслуживающими доверия данными. Уже сейчас в Сети можно встретить анекдотические истории об успешно проложенных "кратчайших" маршрутах или даже о случаях элементарной дезинформации, возникающей из-за публикации устаревших картографических материалов.
Один из наиболее приемлемых вариантов оценки качества публикуемых данных — создание метаданных (данных о самих данных), где помимо специальной географической и описательной информации указывались бы такие характеристики, как точность, качество, надежность. Однако смысловая "относительность" перечисленных характеристик, с одной стороны, и многообразие стандартов метаданных, сложность их получения в автоматическом режиме и особенно субъективность при описании качества данных[См., например, Grade Finale Report (edina.ac.uk/projects/grade/GRADE_Final_Report.pdf, Do spatial data consumers really understand data quality information?; www.spatial-accuracy.org/2006/PDF/Boin2006accuracy.pdf, Spatial Data Quality By Wenzhong Shi, Peter F. Fisher and Michael F. Goodchild (Eds).Taylor and Francis, London and New York, 2002).] — с другой, не позволяют в полной мере решить проблему оценки качества публикуемых материалов.
В 2007 году Open Geospatial Consortium Data Quality Working Group (WG)[ www.opengeospatial.org.], осознавая трудности, связанные с разработкой универсального стандарта метаданных, предпринял уникальную попытку обобщить опыт, знания и экспертные мнения в области оценки качества пространственных данных.
Вильям Л Саймон , Вильям Саймон , Наталья Владимировна Макеева , Нора Робертс , Юрий Викторович Щербатых
Зарубежная компьютерная, околокомпьютерная литература / ОС и Сети, интернет / Короткие любовные романы / Психология / Прочая справочная литература / Образование и наука / Книги по IT / Словари и Энциклопедии