Неопределенность системы рисков реализации проекта и возможность ее снижения

 

Хотя практическое применение предложенного автором подхода для снижения неопределенности в пространстве событий при реализации инвестиционных проектов и может сопровождаться некоторыми трудностями, но его использование, особенно при творческом применении и развитии, может стать весьма полезным.

 

В работе автора, помещенной в № 8 журнала [3], было показано, что одно из основных понятий в теории вероятностей - событие, под которым понимается всякий факт, который в результате опыта может произойти или не произойти, является ключевым при управлении крупными проектами. При этом риск определялся как возможность наступления события под влиянием каких-либо факторов.

Возможность наступления события характеризует качественный переход к появлению условий для его наступления. Появление риска (системы рисков) означает переход рассматриваемой системы в новое качественное состояние или возникновение новой системы. Вероятность наступления события является численной мерой степени объективной возможности наступления события.

Получение убытков или ущерба, потеря доходов и появление дополнительных расходов, как и отклонение результата от запланированной величины - все это события, которые могут наступить и иногда действительно наступают.

Важно понимать, что всегда существует некоторое пространство событий, отвечающее эксперименту или, применительно к рассматриваемой в работе сфере деятельности, отвечающее ситуации. Если определять строго, то пространством событий, отвечающим эксперименту, называется произвольное множество S, обладающее следующим свойством: каждому исходу эксперимента соответствует в точности один элемент этого множества. Каждый элемент множества S называется элементарным событием.

Чтобы представить пространство событий наглядно, рассмотрим в качестве примера семью с тремя детьми. Для того чтобы изучить распределение мальчиков и девочек во всех семьях, имеющих трех детей, составлен список этих семей. Какое пространство событий отвечает эксперименту, заключающемуся в выборе одной семьи? На рис. 1 представлена реально сложившаяся ситуация.

Буквой М обозначены мальчики, а буквой Д - девочки. Если мы используем тройки букв для указания пола старшего, среднего и младшего ребенка в указанном порядке, то следующее множество будет пространством событий для нашего эксперимента: (МММ, ММД, МДМ, МДД, ДММ, ДМД, ДДМ, ДДД).

Тройка ДММ, например, представляет исход «старший ребенок - девочка, а средний и младший - мальчики». Другое пространство событий получается при выписывании числа мальчиков в семье, имеющей трех детей: (0, 1, 2, 3).

 

Рис. 1. Дерево для семей с тремя детьми.

 

Заметим, что удобным методом определения всех возможных исходов эксперимента является построение «дерева», показанного на рис. 1.

Если число всех элементов пространства событий очень велико, что мы часто наблюдаем в действительности, то метод выписывания их всех в один ряд или одну таблицу становится непригодным. Однако для вычисления вероятностей в пространстве событий с равновозможными исходами[1] возможно обойтись и без перечисления всех элементарных событий, используя способы подсчета, известные в теории вероятностей.

Теперь рассмотрим термины «возможность» и «вероятность», но уже имея в виду наступление события желательного или представляющего опасность. Хотя данные понятия близки, между ними существует разница. Она выражается понятием «достоверность». Появление возможности означает достоверное появление условий для наступления события. Но это вовсе не означает, что событие произойдет. Возможность характеризует качественный переход к появлению условий для наступления события. Вероятность же наступления события становится количественной характеристикой достоверной определенности для наступления события, или, если определять строго, то вероятность события есть численная мера степени объективной возможности этого события [1]. Следовательно, сначала появляется возможность наступления события, затем следует вероятность его наступления, хотя в реальной жизни это может происходить практически одновременно.

Переход от возможности наступления события, возникновение которой сопровождается появлением риска, к вероятности наступления события происходит через преодоление неопределенности в пространстве событий или ее уменьшение. В свою очередь это вызывает снижение неопределенности в системе рисков до уровня, позволяющего дать количественную оценку риска.

На рис. 2 показаны основные взаимосвязи между важнейшими понятиями от появления возможности наступления события до количественной оценки величины риска. Ключевой проблемой количественной оценки риска реализации инвестиционного проекта является снижение степени неопределенности в системе рисков его реализации. Это означает, что необходимо искать пути и создавать методики, позволяющие оценивать реально существующую неопределенность. Рассмотрим один из возможных подходов к решению задачи.

 

 

Рис. 2. Взаимосвязь основных представлений при управлении риском реализации инвестиционного проекта.

 

Описанное выше дерево решений инвестиционного проекта может быть адекватно отражено с помощью сетевой модели, содержащей полную совокупность всех работ, которые необходимо выполнить для успешной реализации проекта. Если в модели появится информация о трудоемкости работ и других затратах, необходимых для их выполнения, то можно получить сетевой график работ по реализации проекта. Такой график фактически является информационной моделью сложной системы, элементы которой - работы и их комплексы - в свою очередь часто являются непростыми системами.

В практике реализации инвестиционных проектов необходимо признать, что большинство рисков возникает как следствие неопределенности состояния системы и проблем с получением достоверной информации.

Очевидно, что значение риска реализации проекта достоверно определяется лишь в момент его завершения. Не менее очевидно и то, что инвесторам, ответственным исполнителям проекта и другим участникам его реализации важно иметь представление о вероятной динамике данного риска в течение всего времени осуществления проекта. Возможно ли это в действительности?

Задача непростая, но выполнимая. Любое решение в дереве решений инвестиционного проекта [2] или выполнение работы в ходе реализации инвестиционного проекта с точки зрения теории информации представляет собой совокупность сведений, отражающих риск реализации проекта.

Если бы информация обо всех решениях, которые будут приняты в ходе реализации проекта, была известна заранее, то потеряло бы смысл определение вероятности достижения успеха. Имелись бы достоверные данные о будущих результатах и величине риска реализации инвестиционного проекта.

Вместе с тем, это представляется практически нереальным. В самом начале, в момент появления бизнес-идеи, для участников реализации проекта существует самая высокая неопределенность в отношении действительного риска реализации проекта, который выявится лишь после выполнения всех этапов, т.е. его завершения. В процессе реализации проекта эта неопределенность постепенно уменьшается, но не исчезает до самого конца.

Оценивать эффективность принятия решений в ходе реализации проекта полезно всегда, но наибольший смысл это имеет тогда, когда мы не знаем заранее состояния системы принятия решений, иначе говоря, если есть основания полагать, что на принятие решений будут оказывать влияние случайные факторы, которые невозможно исключить[2]. В практическом плане для анализа динамики риска реализации проекта в условиях неопределенности можно воспользоваться представлениями, существующими в теории информации и позволяющими решать подобные задачи. Рассмотрим некоторые ключевые положения этой теории, применимые для анализа риска реализации инвестиционного проекта в условиях существующей неопределенности.

В качестве объекта, о котором передается информация, мы будем рассматривать некоторую систему Х, которая случайным образом может оказаться в том или ином состоянии, т.е. систему, которой заведомо присуща степень неопределенности. Очевидно, что сведения, полученные о системе, будут тем ценнее и содержательнее, чем больше была неопределенность системы до получения этих сведений (априори). Возникает вопрос: что значит «большая» или «меньшая» степень неопределенности и чем можно ее измерить?

Может показаться, что степень неопределенности определяется числом возможных состояний системы. Однако это не совсем так. Рассмотрим техническое устройство, которое может быть в двух состояниях: 1) исправно и 2) отказ. Предположим, что до получения сведений (априори) вероятность исправной работы устройства 0,99, а вероятность отказа 0,01. Такая система обладает очень малой степенью неопределенности: можно предугадать, что устройство будет работать исправно. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше, так как определяется не только числом ее возможных состояний, но и вероятностями состояний.

Теперь рассмотрим общий случай. Возьмем некоторую систему Х, которая может принимать конечное множество состояний: х1, х2, … , хn с вероятностями р1, р2, … , рn, где

 

рi = Р(Х ~ хi)                            (1)

 

и рi - вероятность того, что система Х примет состояние хi (символом Х ~ хi обозначается событие: система находится в состоянии хi). Очевидно, что .

Запишем эти данные в виде таблицы, где в верхней строке перечислены возможные состояния системы, а в нижней - соответствующие вероятности:

 

xi

x1

x2

xn

pi

p1

p2

pn

 

Таблица по написанию сходна с рядом распределения дискретной случайной величины Х с возможными значениями x1, x2, … , xn, имеющими вероятности p1, p2, … , pn. Действительно, между системой Х с конечным множеством состояний и дискретной случайной величиной много общего; для того чтобы свести первую ко второй, достаточно приписать каждому состоянию какое-то числовое значение (например, номер состояния). Подчеркнем, что для описания степени неопределенности системы совершенно не важно, какие именно значения x1, x2, … , xn записаны в верхней строке таблицы; важны только количество этих значений и их вероятности.

В качестве меры априорной неопределенности системы (или дискретной случайной величины Х) в теории информации применяется специальная характеристика, называемая энтропией. Понятие энтропии является в теории информации важнейшим. Это понятие хорошо подходит как для развития представлений о риске реализации инвестиционных проектов, фактически являющихся сложными информационными системами, так и для проведения конкретных исследований, связанных с оценкой рисков.

Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:

 

.                       (2)

 

Знак минус перед суммой в формуле (2) поставлен для того, чтобы энтропия была положительной (числа pi меньше единицы и их логарифмы отрицательны).

Энтропия H(X) обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, она обращается в ноль, когда одно из состояний системы достоверно, а другие - невозможны. Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний - увеличивается. Наконец, и это самое главное, она обладает свойством аддитивности, т.е. сложения энтропий нескольких независимых систем, когда последние объединяются в одну.

Логарифм в формуле (2) может быть взят при любом основании a > 1. Перемена основания равносильна простому умножению энтропии на постоянное число, а выбор основания равносилен выбору определенной единицы измерения энтропии. Если за основание выбрано число 10, то говорят о «десятичных единицах» энтропии, если 2 – о «двоичных единицах». На практике удобнее пользоваться логарифмами при основании 2 и измерять энтропию в двоичных единицах, поэтому обычно при определении энтропии, если не оговорено иное, под символом log принято понимать двоичный логарифм.

Нетрудно убедиться, что при выборе 2 в качестве основания логарифмов за единицу измерения энтропии принимается энтропия простейшей системы Х, которая имеет два равновозможных состояния:

 

xi

x1

x2

 

pi

1/2

1/2

.

 

По формуле (2) имеем: H(X) = 1.

Определенная таким образом единица энтропии называется «двоичной единицей» и иногда обозначается bit (от английского «binary digit» - двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей.

Для системы Х, измеренной в двоичных единицах и имеющей n равновероятных состояний, имеем энтропию:

 

H(X) = – n 1/n log 1/n = – log 1 + log n

 

или

 

H(X) = log n,                                         (3)

 

т.е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью состояниями H(X) = log 8 = 3.

Формула (2) служит для непосредственного вычисления энтропии. Однако при выполнении исследований часто более удобной оказывается другая форма записи энтропии, а именно представление ее в виде математического ожидания:

 

H(X) = M [ – log P(X)],                        (4)

 

где log P(X) - логарифм вероятности любого (случайного) состояния системы, рассматриваемый как случайная величина.

Когда система X принимает состояния x1, … , xn, случайная величина log P(X) принимает значения:

 

log p1, log p2, … , log pn.                       (5)

 

Среднее значение (математическое ожидание) случайной величины – log P(X) и есть, как нетрудно убедиться, энтропия системы X. Для ее получения значения последовательности (5) усредняются с «весами», равными соответствующим вероятностям p1, p2, … , pn.

Формулы, подобные формуле (4), где энтропия представляется в виде математического ожидания, позволяют упрощать преобразования, связанные с энтропией, сводя их к применению известных теорем о математических ожиданиях.

На практике иногда приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем.

Под объединением двух систем X и Y с возможными состояниями x1, … , xn;  y1, … , ym понимается сложная система (X, Y), состояния которой (xi, yj) представляют собой все возможные комбинации состояний xi, yj систем X и Y. Очевидно, что число возможных состояний системы (X, Y) равно n m.

Согласно теореме сложения энтропий, при объединении независимых систем их энтропии складываются. Эта теорема распространяется на любое произвольное число независимых систем:

 

                     (6)

 

Если объединяемые системы зависимы, простое сложение энтропий уже неприменимо. В этом случае энтропия сложной системы меньше, чем сумма энтропий ее составных частей. Чтобы найти энтропию системы, составленной из зависимых элементов, используется понятие условной энтропии.

Пусть имеются две системы X и Y, в общем случае независимые. Предположим, что система Х приняла состояние xi. Обозначим P(yj | xi) условную вероятность того, что система Y примет состояние yj при условии, что система X находится в состоянии xi:

 

P(yj | xi) = P(Y ~ yj | X ~ xi).                             (7)

 

Определим теперь условную энтропию системы Y при условии, что система Х находится в состоянии xi. Обозначим ее H(Y | xi). По определению имеем:

 

            .           (8)

 

Формулу (8) можно также записать в форме математического ожидания:

 

,                                  (9)

 

где знаком  обозначено условное математическое ожидание величины, стоящей в скобках, при условии X ~ xi. Условная энтропия зависит от того, какое состояние xi приняла система Х. Пользуясь понятием условной энтропии, можно определить энтропию объединенной системы через энтропию ее составных частей.

Согласно теореме об энтропии сложной системы, если две системы Х и Y объединяются в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей плюс условная энтропия второй части относительно первой:

 

H(X, Y) = H(X) + H(Yú X).                             (10)

 

Теорема об энтропии сложной системы распространяется на любое число объединенных систем, где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.

Выше энтропия была определена как мера неопределенности состояния некоторой системы. Очевидно, что в результате получения сведений неопределенность системы может быть уменьшена. Чем больше объем полученных сведений, чем более они содержательны, тем менее неопределенным будет ее состояние. Естественно поэтому измерять количество информации уменьшением энтропии той системы, для уточнения состояния которой предназначены сведения.

 

Виктор МОСКВИН,

доктор экономических наук,

профессор Государственного университета управления,

академик Академии проблем качества РФ

 

Литература

3. Москвин В.А. Основы теории риска для реализации инвестиционных проектов. Инвестиции в России. 2001. № 8.

1. Вентцель Е.С. Теория вероятностей. М.: Наука. 1969. С. 24.

2. Москвин В.А. Временная динамика системы рисков инвестиционного процесса. Инвестиции в России. 2001. № 2.



[1] Равновозможность исходов фактически является ограничением, не позволяющим во всех случаях применять на практике для управления риском реализации инвестиционных проектов некоторые наиболее важные положения теории вероятностей, разработанные для случайных величин и случайных функций.

[2] Выявить неслучайные факторы можно путем проведения специального обследования системы, что позволяет объективно учитывать их в дальнейшем.