КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Преимущество, обусловленное дальновидностью. 2 страницаПримеру Google последовал крупнейший интернет-магазин Amazon.com. Всего за год, с 2000-го по 2001-й, компания сократила свои расходы на ИТ почти на 25%. Это удалось сделать прежде всего благодаря замене серверов с проприетарными процессорами и операционными системами более дешевыми машинами на базе процессоров Intel под управлением ОС Linux [7]. По тому же пути пошел промышленный гигант General Electric. По словам директора по информатизации Гэри Рейнера (Gary Reiner), перевод многих корпоративных приложений на массовые компьютеры позволил компании снизить инвестиции в новые системы ни много ни мало на 40% [8]. Такая же долгосрочная тенденция, хотя и более медленная, наблюдается на двух других целевых рынках компании Dell — на рынке устройств для хранения информации и рынке сетевого оборудования. Таким крупным поставщикам накопителей данных, как компания ЕМС, до последнего времени удавалось сохранять проприетарные конфигурации техники и ПО. В 2001 году компания Dell, обеспокоенная отсутствием единых стандартов, заключила контракт на дистрибуцию и частично на производство оборудования компании ЕМС сроком на пять лет. Однако, как и в случае с серверами, на рынке устройств для хранения информации также начинается бум стандартизации. Пользователи и поставщики уже разрабатывают технические стандарты, позволяющие компаниям закупать устройства для хранения данных у разных поставщиков и объединять их в единые системы. В конце 2003 года для достижения большей функциональной совместимости своего оборудования лидеры отрасли — компании ЕМС и IBM — договорились о единых стандартах в области разработки программ хранения данных. Их конкуренты, производящие более дешевую технику, например японский электронный гигант Hitachi, увеличивают свою долю на рынке, предлагая типовую технику, работающую на программном обеспечении с открытым исходным кодом [9]. По мере усиления конкуренции и дальнейшего падения цен все больше компаний будут рассматривать устройства для накопления информации в качестве товара массового потребления. Затем настанет очередь компьютерных сетей. Dell уже предлагает линию простых коммутаторов (switch), цены на которые в пять раз ниже, чем цены на продукцию конкурента — лидера отрасли компании Cisco. Высокопроизводительные системы переключения и маршрутизации по-прежнему защищены правом собственности и комплектуются сложными (и строго охраняемыми) процессорами и ПО. Но и в этой области наблюдаются все признаки грядущих перемен. Как утверждают авторы статьи, опубликованной в 2003 году в журнале Business 2.0, «как и в случае с системами хранения данных, не исключено, что ведущие производители сетевых устройств скоро потеряют свои особые позиции на рынке. Благодаря командам, которые Intel и Broadcom уже встраивают в сетевые чипы, любой производитель компьютерной техники легко сможет купить то, на что у него ушли бы годы исследований» [10]. По мере роста мощности ИТ вчерашние «чудесные машины» становятся дешевыми «ящиками». Конечно, никто не может гарантировать Dell лидирующие позиции на всех названных рынках компьютерной техники. Все более острой становится конкуренция как с производителями специализированного оборудования, например с EMC, Hitachi и Cisco, так и с такими гигантами, как IBM, Microsoft и Hewlett-Packard. Все крупнейшие компании, работающие в области ИТ, будут упорно бороться против концентрации контроля над высокопроизводительной инфраструктурой в одних руках. Однако такая ожесточенная конкуренция лишь ускорит коммодитизацию. Независимо от того, победит или проиграет Dell в этой борьбе, сама борьба будет происходить по установленным ею правилам. Чтобы понять, почему обострение конкуренции ведет к коммодитизации компьютерной техники, можно использовать понятие «эффекта перелета» (overshooting), подробно описанного Клэйтоном Кристенсеном (Clayton Christensen) в книге «Дилемма инноватора» (The Innovator's Dilemma). «Перелет» — это ситуация, в которой производительность технологического продукта превышает потребности большинства пользователей и тем самым стимулирует появление более дешевых аналогов. Кристенсен поясняет: «Развитие технологии зачастую опережает рост спроса основных потребителей. Поэтому техническое совершенствование продуктов, характеристики и функциональные возможности которых в наибольшей степени соответствуют сегодняшнему спросу на рынке, нередко приводит к тому, что они начинают опережать потребности завтрашнего массового рынка. Продукты же, которые сегодня серьезно отстают от будущих ожиданий массового потребителя, завтра могут оказаться вполне конкурентоспособными по производительности» [11]. «Эффект перелета» — это распространенное, возможно, даже общее явление в сфере компьютерных технологий, которые непрерывно совершенствуются. Подгоняемые необходимостью удовлетворять спрос самых требовательных потребителей и сохранять при этом высокую прибыль, поставщики технологий ведут жестокую конкурентную борьбу, стремясь сделать свою продукцию безупречной, и придают ей новые особенности и функции, чтобы сохранить лидерство на рынке. Однако каждое следующее поколение технологий демонстрирует «эффект перелета», превосходя потребности отдельных потребителей, которые нередко реагируют таким образом, что переходят на более дешевые базовые версии от других производителей. В конечном итоге по мере развития технологии производительность самых дешевых образцов новой техники начинает отвечать потребностям большинства покупателей, и конкурентная борьба перемещается из области технических характеристик в область цен. «Эффект перелета» объясняет, почему Google может игнорировать новейший процессор Intel, компании Amerada Hess, Amazon и General Electric используют менее дорогие серверы, a Dell всегда удается «поживиться» на новых рынках, перемещая конкуренцию в область снижения цен. Это явление объясняет, почему Windows вытесняет специализированные операционные системы, a Linux в свою очередь вытесняет Windows. Многие производители компьютерной техники не сразу признают существование «эффекта перелета». Им хочется верить, что запросы потребителей и возможности их техники всегда шагают нога в ногу. Однако в отличие от производства компьютеров потребности потребителей не подчиняются закону Мура. Рано или поздно большинство из них начинают довольствоваться тем, что имеют. Потребителям просто не нужна более высокая мощность или новый усложненный набор функций. Их вполне устраивает массовый товар. Когда эта тенденция придет к своему логическому завершению, для среднестатистического пользователя перестанут существовать индивидуальные компоненты физической инфраструктуры. Компании будут просто подключаться к общей инфраструктуре при помощи кабеля или антенны и автоматически получать доступ ко всем необходимым функциям. ИТ станут такими же простыми в использовании, как электричество. Собственно говоря, именно к этому сейчас и стремятся многие ИТ-компании. В так называемых сетевых вычислениях компьютеры, подключенные к сети, не просто обмениваются файлами или совместно используют разрозненные приложения. По сути, они сливаются в единую числовую машину. Все процессоры и резервы памяти используются совместно, и задачи отдельных пользователей в области обработки и хранения данных распределяются между ними наиболее эффективным образом. При сетевых вычислениях сеть по существу превращается в единый компьютер, как и обещал несколько лет назад известный рекламный лозунг компании Sun Microsystems, а использование компьютеров становится просто разновидностью коммунальных услуг [12]. Многим руководителям компаний, долгие годы боровшихся с капризной, несовместимой компьютерной техникой, подобная перспектива может показаться утопией. Действительно, чтобы масштабные сетевые вычисления стали реальностью, предстоит ликвидировать еще многие технические барьеры. Тем не менее их развитие уже началось. Более 2 млн человек предоставили свои ПК для почти фантастического проекта SETI, нацеленного на отслеживание радиосигналов из космоса в надежде обнаружить признаки разумной жизни. Терабайты информации, аккумулированной при помощи радиотелескопа в Аресибо (Пуэрто-Рико), через интернет передаются на компьютеры участников проекта и обрабатываются по мере появления свободных машинных циклов. Несколько коммерческих предприятий проводят эксперименты по созданию локальных сетей на базе собственных ПК и других компьютеров для более полного использования вычислительных мощностей. Что действительно необходимо для более широкого распространения сетевых вычислений, так это программное обеспечение нового поколения, позволяющее координировать всю связанную между собой удаленную компьютерную технику, и простой интерфейс, скрывающий от пользователей сложную работу сети, подобно тому, как первый графический интерфейс Macintosh скрывал громоздкую работу первых ПК. Многие крупнейшие поставщики ИТ, включая Microsoft, IBM и Hewlett-Packard, лихорадочно работают над созданием необходимого программного обеспечения, надеясь оказаться в авангарде сетевых вычислений и в конечном счете получить от этого прибыль. Их успех в создании совершенной скоординированной сети будет означать наступление заключительного этапа коммодитизации компьютерной техники, на котором пользователи перестанут различать оборудование различных производителей. Физическая инфраструктура ИТ обретет окончательный вид и в основном станет невидимой. Коммодитизация программного обеспечения. Но есть еще и программное обеспечение. Как продукт оно, в отличие от компьютерной техники, не имеет осязаемой материальной формы и неизменного облика. Теоретически ПО может принимать неограниченное количество форм для решения неограниченного количества задач. Оно кажется столь же абстрактным и текучим, как сама мысль. Как пишет в своей книге «Переход» (Go To) корреспондент газеты New York Times Стив Лор (Steve Lohr), «программное обеспечение является воплощением человеческой мысли» [13]. Как же текучая и изменчивая человеческая мысль превращается в массовый товар? Однако именно с этой идеалистической точки зрения программное обеспечение рассматривается многими представителями ИТ-бизнеса. В общем, такая позиция вполне корректна: нет предела инновациям в области ПО. Однако это представление не отражает прозаическую практику реального использования программных средств в бизнесе. В сущности, для руководителей и сотрудников компаний ПО не является идеей или абстрактным понятием. Компьютерные программы, в особенности прикладные, это осязаемые продукты, приобретаемые за реальные деньги конкретными людьми, стремящимися к достижению реальных результатов. И если рассматривать ПО не в качестве абстракции, а как продукт, становится ясно, что оно так же подчиняется законам экономической теории, рынка и конкуренции, как и самые обычные материальные товары. На самом деле именно нематериальная форма ПО обусловливает некоторые его дополнительные характеристики, в совокупности делающие его еще более подверженным коммодитизации, чем многие материальные товары. Так, компьютерные программы в значительной степени подвержены эффекту масштаба. Разработка программы требует серьезных затрат, работы высококвалифицированных специалистов, тщательного планирования, строгого контроля качества, координации и бесконечного тестирования. Однако если программа уже написана, физических ограничений для ее воспроизводства практически не существует. Ее копирование и распространение почти не требует затрат, а иногда не требует их вообще. В значительной степени история разработки программного обеспечения — это история попыток более полно использовать латентный эффект масштаба и компенсировать высокие затраты на разработку за счет максимального увеличения количества пользователей. Хотя часто говорят, что программное обеспечение стремится к бесплатному использованию, правильнее будет сказать, что оно стремится к увеличению количества распределенных или удаленных пользователей или, иными словами, к превращению в товарный ресурс. В начале 1950-х годов, когда компьютеры впервые стали использоваться в бизнесе, у компаний не было другого выхода, кроме как разрабатывать собственные программы. Производители компьютерной техники почти не занимались разработкой ПО, а соответствующей специализированной отрасли еще не существовало. Каждая компания, покупающая мейнфрейм, должна была создавать программы для выполнения даже самых элементарных функций, таких как преобразование двоичных чисел в десятичные и наоборот. Учитывая сложность и высокие затраты, разработка надежной программы требовала колоссальных (и, как вскоре выяснилось, бесполезных) усилий. Опасаясь, что затраты на разработку ПО могут отпугнуть покупателей компьютеров, IBM помогла объединиться пользователям ее мейнфреймов серии 700, которые в то время были основными бизнес-компьютерами. Ассоциация, получившая говорящее название Share («Делись»), имела одну главную цель: снижение затрат компаний на ИТ за счет обмена программным обеспечением. В первый год существования Share среди ее членов были распространены около 300 программ, что, по оценке специалистов, позволило сэкономить не менее $1,5 млн [14]. На примере ассоциации Share впервые проявился принцип, который сегодня стал основным императивом развития программного обеспечения для бизнеса: ради достаточно серьезного сокращения затрат компании готовы пожертвовать своей исключительностью. Разумеется, такой подход используется не только в области ПО, но и вообще в бизнесе. Если широко используемый ресурс дорог и в значительной степени подвержен эффекту масштаба, соображения, связанные с экономией затрат, возобладают над стратегическими. В таких случаях контроль над поставками ресурса обычно переходит от пользователей к нескольким внешним поставщикам. Естественно, именно это и произошло с ПО. Поскольку программы постоянно усложнялись и включали уже не тысячи, а сотни тысяч, а то и миллионы строк машинного кода, обмена в рамках объединений пользователей было уже недостаточно. Большинство компаний просто не могли себе позволить содержать штат, необходимый для самостоятельной разработки программ. Вместо этого они начали заключать контракты на разработку ПО со специализированными фирмами, которые впервые появились в середине 1950-х и быстро размножились в 1960-е. Программисты, оставшиеся в штате компаний, постепенно перестали писать новые программы и начали заниматься их обслуживанием, совершенствованием и устранением ошибок. По мере накопления опыта централизованного обслуживания самых разных клиентов новые фирмы смогли гораздо полнее использовать эффект масштаба, изначально присущего этой отрасли. В то же время их появление способствовало дальнейшей коммодитизации программного обеспечения для бизнеса, инициировав его трансформацию из внутреннего корпоративного ресурса в закупаемый извне. Хотя фирмы-контракторы разрабатывали для клиентов так называемые клиентские приложения, на самом деле эта тенденция кастомизации была скорее кажущейся, чем реальной. Чтобы иметь возможность неоднократно использовать большие фрагменты уже написанных единожды программ для выполнения разных заказов, подрядчики специализировались на конкретных отраслях или бизнес-процессах. Как поясняет специалист по истории программного обеспечения Мартин Кэмпбелл-Келли (Martin Campbell-Kelly), «по мере того как фирмы получали все больше и больше заказов из одной области применения, происходило накопление знаний в области программных средств и ресурсов, благодаря чему они могли и различных сочетаниях использоваться для выполнения заказов от самых разных клиентов» [15]. Только за счет такого многократного использования сложные программы оставались доступными для широкого круга компаний, а разработчики программ получали прибыль. С появлением в 1970-1980-е годы миникомпьютеров, а затем и ПК произошли три важных изменения, которые сильно повлияли на процесс разработки программного обеспечения и усилили позиции поставщиков. Во-первых, компании смогли позволить себе покупать больше компьютеров. В результате количество пользователей увеличилось в несколько раз. Соответственно возросли и возможности экономии за счет эффекта масштаба при разработке ПО. Во-вторых, сотрудники нетехнических специальностей впервые начали непосредственно работать на компьютере, поэтому программы должны были быть простыми в использовании и стандартизованными. В-третьих, возросла роль компьютерных сетей, и компании были вынуждены заменить «закрытые» корпоративные приложения на «открытые». В результате этих изменений программы стали продаваться в виде прикладных пакетов. Эволюция пакетов программ имеет поразительное, но вполне закономерное сходство с эволюцией компьютерной техники. Первые популярные приложения для массового рынка, такие как текстовые редакторы и программы для работы с электронными таблицами, использовались самой многочисленной и наименее технически подготовленной группой потребителей (то есть рядовыми сотрудниками компаний) и выполняли общие, периферийные задачи. Но постепенно пакеты приложений начинали играть все более важную роль в работе компаний и выполнять все более специализированные задачи. Рост производительности микропроцессоров и необходимость их функциональной совместимости, обусловливающие необходимость стандартизации даже самой сложной компьютерной техники, также диктовали потребность унификации самых сложных программ. К концу 1980-х компании не просто покупали одни и те же текстовые редакторы и программы для работы с электронными таблицами. Они приобретали типовые программы для управления базами данных, создания локальных сетей, бухгалтерского учета, биллинга, разработки производственных графиков, управления запасами и персоналом, компьютерного дизайна и проектирования и т. д. Раньше разработка специальных программ для выполнения всех этих технических и экономических задач была возможной, хотя и требовала больших затрат. Теперь любая компания могла купить все эти программы (или, по крайней мере, получить лицензию на их использование) всего за несколько сотен долларов. Кульминацией развития пакетов программ для бизнеса в 1990-е годы стало введение систем планирования ресурсов предприятия (ERP). Пионером в этой области разработки стала немецкая фирма SAP. Программы, которые разрабатывала эта фирма, должны были решить (и иногда действительно решали) одну из самых болезненных и «дорогих» проблем, стоящих перед современными компаниями: проблему хаоса узкоспециализированных приложений. По мере того как компании, отдельные предприятия или подразделения компьютеризировали одну функцию за другой, возникала проблема, связанная с необходимостью синхронного управления огромным количеством несовместимых программ, написанных на разных языках и требующих разной техники и операционных систем. Несовместимое программное обеспечение не только обусловливало высокие затраты на обслуживание и устранение неполадок. Оно также требовало дополнительной работы и увеличивало количество ошибок, поскольку одни и те же данные приходилось вводить в разные программы в разных форматах. Из-за этого руководители компаний не могли получить целостного представления о работе компании. Они могли видеть только отдельные ее аспекты. В программном обеспечении SAP и других систем планирования ресурсов, появившихся вслед за ним, основные приложения для управления предприятием (бухгалтерский учет, управление персоналом, планирование производства, ценообразование, продажи) служили модулями единой интегрированной системы. Использование всеми модулями единой базы данных устраняло необходимость в повторном вводе информации, снижало вероятность ошибок и позволяло менеджерам получить гораздо более точное представление о работе компании. Хотя изначально можно было создавать отдельные уникальные элементы системы планирования ресурсов для конкретной отрасли или компании, внешние консультанты при выполнении заказов обычно «подгоняли» стандартные программы к потребностям отдельных потребителей на основе использования стандартизованных средств изменения конфигурации. Таким образом, любая ценная модификация могла быть скопирована другими компаниями. К концу 1990-х годов стало ясно, что масштабная «подгонка» редко стоила затраченных усилий. Компании все чаще предпочитали готовую базовую конфигурацию, понимая, что изменение комплексных программ потребует значительных затрат времени и денег, но не приведет к значимой дифференциации [16]. Более того, системы от разных поставщиков почти не имели функциональных различий. Вне зависимости от того, у кого вы покупали систему управления ресурсами — у SAP, Oracle, PeopleSoft или Вааn, вы получали одни и те же базовые функциональные возможности и одни и те же плюсы и минусы. Различия между программами продолжали стираться, так как поставщики быстро копировали друг у друга все более или менее значимые новшества и каждое новое поколение программ было все более унифицированным. К 1998 году Рей Лэйн (Ray Lane), занимавший тогда пост президента Oracle, признавался, что «потребители не могут обнаружить даже пятипроцентного отличия между продуктами SAP, PeopleSoft и нашей компании» [17]. Как и другие корпоративные системы, которые автоматизировали, например, управление поставками или связями с клиентами, системы управления ресурсами предприятия были крайне сложными, а их создание требовало больших затрат. Даже после того как SAP разработала версию программы для мейнфреймов, ей пришлось дополнительно потратить около $1 млрд на разработку версии для клиентских серверов [18]. Самостоятельно написать для себя подобную программу не смогла бы ни одна компания. Комплексные корпоративные системы могли быть созданы только внешними поставщиками, способными переложить затраты на их разработку на многочисленных заказчиков. Поэтому когда крупные компании выстроились в очередь к поставщикам таких программ, стандартное, массовое программное обеспечение начало работать «в самом сердце» предприятий. И снова в глазах руководителей компаний эффективность от использования единого ПО оказалась ценнее утраченной исключительности. Когда генератором технологических инноваций становится не столько пользователь, сколько поставщик и подрядчик, как в случае с программным обеспечением, компаниям становится все сложнее дифференцироваться. Появление в конце XIX — начале XX века механических станков наглядно иллюстрирует эту тенденцию. Механические обрабатывающие станки являются аналогом компьютерных программ по трем причинам. Во-первых, они представляют собой своеобразный инструмент программирования, поскольку механизируют изготовление деталей или изделий, сохраняя информацию об их форме, размере и процессе производства. Во-вторых, они могут быть переналажены для выполнения различных функций, от простейших до самых сложных. В-третьих, они быстро начали широко применяться в промышленности, так как повышали производительность настолько, что практически каждый производитель был вынужден их использовать. Первые механические станки представляли собой простейшие зажимы, то есть деревянные панели, которые использовались при работе с пилой или фрезой. Чем удачнее мастер продумывал конструкцию такого станка, тем выше была скорость работы и качество продукции. Это давало преимущество и мастеру, и его работодателю. Появление в конце XIX века электроэнергии и электромоторов позволило создавать гораздо более совершенные станки, и возникла новая отрасль экономики — станкостроение. Продавая свое оборудование различным компаниям, такие производители, как Cincinnati Milling Machine Company, смогли добиться экономии за счет эффекта масштаба и распределить высокие затраты на разработку станков между многочисленными потребителями. В первой половине XX века станки быстро совершенствовались благодаря ряду технических изобретений, например зубчатой передачи, гидравлического пресса и электромеханических рычагов. Каждое такое изобретение увеличивало сложность станков, что позволяло повысить точность, скорость и гибкость производственных операций. Совершенствование обрабатывающих станков значительно увеличило эффективность производства за счет роста производительности и качества продукции. Однако поскольку производители станков, естественно, стремились увеличить объем продаж за счет обслуживания максимально возможного количества заказчиков, технические изобретения быстро распространялись во всей отрасли. Преимущества использования достижений технического прогресса не становились собственностью отдельного производителя, по крайней мере надолго. В результате совершенствование механических станков обычно способствовало развитию всей отрасли, не создавая устойчивых конкурентных преимуществ для отдельных компаний [19]. Превращение разработки ПО в самостоятельную отрасль обслуживания имело те же последствия. Будущее программного обеспечения. Эффект масштаба в производстве ПО объясняет распространение пакетных типовых программ, предлагаемых поставщиками и используемых многими компаниями. Однако программное обеспечение также в значительной степени подвержено уже упомянутому «эффекту перелета», который в свою очередь способствует коммодитизации. Как и производители компьютерной техники, компании, разрабатывающие ПО, вынуждены постоянно совершенствовать свои программы, чтобы удовлетворять потребности продвинутых пользователей и опережать конкурентов (или хотя бы не отставать от них). Однако в случае программного обеспечения существуют дополнительные факторы, обусловливающие «эффект перелета». Поскольку ПО не является материальным продуктом, оно «нетленно», то есть не подвержено физическому износу. Это устраняет необходимость его реновации за счет новых закупок. Единственный способ заставить потребителя снова купить программу — это сделать ее лучше, то есть модернизировать. Циклическая модернизация и постоянное совершенствование ПО были важнейшей задачей большинства производителей пакетного ПО, однако они также способствовали «эффекту перелета». Так, в 1980-1990-е годы компания Microsoft выпустила множество эффективных новых версий Microsoft Office. Однако когда появился Microsoft Office 97, оказалось, что рынок принимает его неохотно. Многим пользователям были не нужны новейшие возможности, и скорость модернизации упала. В конце концов недовольные потребители вынудили Microsoft выпустить специальный конвертер, позволявший открывать файлы Office 97 в Office 95, что позволило им продолжать использовать старые программы [20]. Microsoft Office превзошел потребности большинства пользователей. Это и было очевидным проявлением «эффекта перелета». Как и в случае с эволюцией компьютерной техники, тенденция к опережению предложения по сравнению с потребностями пользователей открывает дорогу дешевым массовым версиям приложений. Это в значительной степени объясняет растущую популярность ПО с открытым исходным кодом. Хотя первые версии подобных программ чаще всего были «неуклюжими», не имели продвинутых пользовательских интерфейсов и часто ломались, число их потребителей стабильно росло по мере развития возможностей таких программ и их унификации. Сейчас основной программой для веб-серверов, использующей открытый код, является Apache. Ее доля на рынке составляет 65% [21]. Объем продаж на рынке операционной системы Linux продолжает расти за счет сокращения доли Windows и других систем разработки, основанных на Unix. На рынке ПО для управления базами данных MySQL отвоевывает позиции у традиционных и дорогих программ Oracle, IBM и Microsoft. В процессе разработки или доработки находятся еще несколько программ с открытым исходным кодом, в том числе такие бесплатные оболочки для офисных приложений, как OpenOffice, файлы которых совместимы с Microsoft Office. Можно не сомневаться, что по мере роста их возможностей многие из этих приложений также начнут вытеснять более дорогие пакетные программы традиционных поставщиков. В действительности иногда распространение бесплатного ПО активно поощряется известными компаниями, поскольку рассматривается как подрыв позиций конкурентов. Например, когда в 2000 году компания IBM объявила о поддержке Linux, это было сделано прежде всего для того, чтобы переманить пользователей операционных систем главных конкурентов компании — Microsoft и Sun. Такую же цель преследовала компания SAP, когда в 2003-м начала распространение среди своих клиентов MySQL. Этот гигант корпоративного ПО спит и видит, как бы ослабить позиции Oracle, IBM и Microsoft в области конкурирующих программ для работы с базами данных. В свою очередь Sun активно продвигает модификацию OpenOffice (недорогой пакет приложений StarOffice), надеясь подорвать позиции Microsoft на рынке настольных ПК. Поставщики информационных технологий только рады, если продукция их конкурентов становится массовым, ничего не стоящим товаром. Другим фактором, стимулирующим процесс коммодитизации ПО, является продолжающееся усложнение средств, используемых программистами. В начале 1950-х годов для программирования меинфрейма приходилось писать инструкции в машинном коде — в форме натуральных двоичных чисел, считывавшихся компьютером. В 1960-е появление языков Fortran, Cobol и Basic позволило программистам работать на более высоком уровне, используя более естественные форматы, напоминавшие алгебраические уравнения, а иногда и речевые сигналы. Позднее графические программы, например Microsoft Virtual Basic, и объектно-ориентированные языки, например Java компании Sun, еще более упростили разработку программ, облегчив программистам повторное использование модулей программы, выполняющих конкретные задачи. Стало возможным быстро воспроизводить или совершенствовать функциональные возможности существующих программ. Это делало собственное статичное программное обеспечение еще менее привлекательным. Упростив разработку ПО, появление новых средств программирования также способствовало постоянному росту количества профессиональных программистов, недостаток которых в прошлом часто становился препятствием для создания или тиражирования программного обеспечения. В 1957 году во всем мире насчитывалось не более 20 тыс. профессиональных программистов. Сегодня их количество оценивается примерно в 9 млн человек [22]. Действительно, важнейшей тенденцией развития ПО стал быстрый перенос производства в страны с дешевой рабочей силой, в первую очередь в Индию. Компания General Electric уже пользуется услугами приблизительно 8 тыс. индийских подрядчиков для написания программ и решения других задач по эксплуатации своих информационных систем. В Индии сегодня разрабатывается около половины всех программ, выпускаемых компанией [23]. Пример General Electric не является исключением. По прогнозам Forrester Research, к 2015 году с целью снижения затрат 500 тыс. рабочих мест в индустрии ИТ США будет переведено в другие страны [24]. Как утверждает газета Financial Times, «Квалификация программистов из Индии, Филиппин, Мексики и других стран не ниже, а иногда и выше квалификации их более высокооплачиваемых коллег из США и Европы, а стоят они иногда на 90% дешевле» [25].
|