[review] Large-sample evidence on firm's year over year MD&A modification
미국의 10-Q, 10-K의 MD&A section의 변화와 기업의 future return과의 관계에 대해 다룬 Similarity_Cohen_Malloy_Nguyen(2019)LAZY PRICES 를 리딩하던 중 선행논문으로 언급되고 document similarity를 다루고 있기 때문에 논문과 방법론을 살펴볼 필요성이 있다고 판단되어 리뷰글을 적게 되었습니다.
First, firms with larger economic changes modify the MD&A more than those with smaller economic changes. Second, the magnitude of stock price responses to 10-K filings is positively associated with the MD&A modification score, but analyst earnings forecast revisions are unassociated with the score, suggesting that investors but not analysts use MD&A information. Finally, MD&A modi fication scores have declined in the past decade even as MD&A disclosures have become longer; the price reaction to MD&A modification scores has also weakened, suggesting a decline in MD&A usefulness. ( abstract 中)
abstract의 내용은 이렇습니다. 첫번쨰로 , 경제적인 변화를 겪는 기업일수록 보고서 중 MD&A( 우리나라에선 '이사의 경영진단 및 분석')파트의 변화가 크다는 것입 니다. 이는 lazy prices(2019) 의 핵심 아이디어와 같습니다. 두번째로, MD&A의 변화량인 modification score에 investors는 반응했다면 analyst는 그렇지 않았다는 것입니다. 세 번 째로 MD&A의 길이가 시간이 지날수록 길어짐에도 불구하고 modification score에 따른 가격의 변화, MD&A가주는유의미한정보력은 감소하고 있다는것입니다.
1. introduction
MD&A 자체는 강제적인 요소이며 투자자들에게 있어서 중요한 이슈와 정보이다. 그러나 Li[2008]에 따르면 사업보고서를 작성하는 매니저들은 오히려 이를 이용해 재무적인 내용을 공시하는 것을 전략적으로 난독화할수도 있다고 한다
그렇다면 기업의 economic changes가 클수록 보고서의 변화량이 클 것인가? 에 대한 질문의 대답으로 조사 결과 기업의 operations보다는 liquidity and capital resources(LCR)의 변화 이후 보고서의 변화가 더 컸다는 사실과 firm size, competition and legal environment 또한 연관이 있었지만 risk factor에 의한 것은 아니였다. legal environment에 대해서는 lazy prices에서도 소송에 관련된 내용을 따로 scoring했었으며 유의미한 알파가 존재했다.
2. Background and related research
3. Measuring Year-over-year MD&A Modifcations
MD&A의 텍스트 유사도를 측정하는 방법으로는 Vector space model(VSM) 을 이용했다. 말 그대로 단어 또는 단어집합인 문서를 벡터 공간에 저장한 것이다. 논문에 나온 표기에 따르면 이러하다.
n: number of unique words in total documnets
value of each element : frequency of a particular number in that document
v1=(w1,w2,...,wn−1,wn)andv2=(k1,k2,...,kn−1,kn)
전체 문서에서 중복되지 않는 고유한 단어의 갯수는 n이고 n차원의 Euclidian space가 있다. 한 문서 내의 단어들은 n의 집합속에서 문서 내에 존재하는 것도 있고 그렇지 않은 단어들도 있을텐데, 이제 그 frequency가 value값이 되는것이다. 위에 수식으로 표기한 v1과 v2에는 개별 문서 vi에 속한 단어들의 value값이 있을 것이다. 벡터값들의 사잇각을 구하는 방법인 cosine similarity 를 통하여 documnet similarity를 계산하였다.
weighting functions으로써는 가장 보편적인 TF-IDF 를 사용함.
여기서는 difference score (not similarity)를 이용한다. Rawscore 은 단순히 전년 해와 올해의 difference score 측정을 통하여 구하는데 raw인 이유는 document length가 올라갈수록 score도 올라가기 때문이다. "We empirically approximate the functional form of the relation between Rawscore and document length by a Taylor expansion at 0". 테일러급수를 이용하여 정확히 어떻게했는지는 이해가 안가지만..
score = Rawscore - expected score 로 length의 영향을 제거 .. 일종의 정규화를 시켜주는 것 같다.
사업보고서에서 n개의 word가 있고 r개의 단어를 골라서 사용한다면 사용되는 단어가 가질 수 있는 경우의 수는 nCr이다. 다음 해의 사업보고서에서 그전 r개의 단어와 겹치지 않게 사용하는 경우의 수는 n-rCr이다. 이에 대한 확률 P(r)은 n-rCr / nCr 이므로
사용되는 단어의 수 r이 n개의 2/3 미만일 때 P(r)값이 1보다 작아지게 된다.


4. Sample and Descriptive Statistics
sample period는 1997-2006 의 10년치 EDGAR 10-k filling이다. 사업보고서를 낸 기업들의 'industry'를 GICS code 기준으로 분류하였음. 한 기업과 그 기업의 industry 내의 다른 기업들과의 raw difference score를 평균내서 industry score(개별기업)를 구함. 이제 industry 별로 그 score값들 평균내면 given year의 industry score이다.

industry 신경쓰지않고 random pari 1,000개 뽑은것이 가장 score높았음. industry sector별, group별로 세부적인 그룹화를 통한 평균을 낼수록 score는 떨어짐. 시간지날수록 score가 떨어지는 경향성도 보이는듯.

x축은 보고서의 길이(단어의 수)이며 , y축은 Rawscore과 Frequency이다. 대부분이 2000자에서 8000개의 단어로 구성된 문서들이였으며 1th는 21,703이다. 단어 수가 증가함에 따라 Rawscore는 떨어졌고 , Score값은 flat하였다. 정규화 효과가 있다는 걸 보여주는 figure인듯.
5. MD&A Modifications After Economic Changes

6. Investors' and Analysts' Responses to MD&AModifications
MD&A는 숫자나, financial statements 외의 정보를 담고 있기 때문에 효용이 있는 게 사실인데 의무적으로 공시를 해야하기 때문에 여기서 오는 문제도 있다. Li[2008]에 따르면 매니저들이 자신들의 기업 성과를 쉽게 해석하기 어렵게 하기 위해(전략적 난독화) MD&A를 변형한다고 한다. 또한 제대로 내용을 공시를 하더라도 적시성의 문제 즉, 다른 기업이나 언론의 선점 공개 때문에 영향을 받을수도 있다.
'machine learning > Article review' 카테고리의 다른 글
YOLO v1 리뷰 (0) | 2021.12.16 |
---|---|
Fast & Faster R-CNN 리뷰 (0) | 2021.12.03 |
[R-CNN] Rich feature hierarchies for accurate object detection and semantic segmentation (0) | 2021.12.03 |
[GoogLeNet] Going deeper with convolutions (0) | 2021.11.29 |
[review]Similarity_Cohen Malloy Nguyen(2019)LAZY PRICES (0) | 2020.04.04 |
댓글
이 글 공유하기
다른 글
-
Fast & Faster R-CNN 리뷰
Fast & Faster R-CNN 리뷰
2021.12.03 -
[R-CNN] Rich feature hierarchies for accurate object detection and semantic segmentation
[R-CNN] Rich feature hierarchies for accurate object detection and semantic segmentation
2021.12.03 -
[GoogLeNet] Going deeper with convolutions
[GoogLeNet] Going deeper with convolutions
2021.11.29 -
[review]Similarity_Cohen Malloy Nguyen(2019)LAZY PRICES
[review]Similarity_Cohen Malloy Nguyen(2019)LAZY PRICES
2020.04.04
댓글을 사용할 수 없습니다.