카테고리 없음

컴공과 추천 책 3

독서의힘 2024. 6. 17. 22:12

최신 컴퓨터 구조

디지털 논리부터 성능 분석까지 

컴퓨터 하드웨어의 기본 구조와 동작 원리 및 설계 방법을 설명한다. 하드웨어가 프로그램을 분석하는 방법, 성능을 높이는 방법 등을 알면 더 좋은 프로그램을 만들 수 있다. 이 책을 통해 하드웨어 설계를 위한 기본기뿐만 아니라 좋은 프로그램을 만드는 데 필요한 기초 체력도 다질 수 있다.

임석구

한국항공대학교 전자공학과를 졸업하고 서울대학교 전자공학과 공학석사 학위를 취득하였으며, LG 중앙연구소, 한국전자통신연구원에서 근무했다. 한국항공대학교에서 전자공학 박사학위를 취득한 후 현재는 백석대학교 정보통신학부 교수로 재직중이다.

홍경호

영남대학교 전자공학과에서 학사, 동 대학교 대학원 컴퓨터공학과에서 석, 박사학위를 취득하였다. 1996년부터 1998년까지 협성대학교에서 교수로 재직했고, 1998년부터 백석대학교 정보통신학부 교수로 재직중이다.


데이터 베이스 시스템

Ramez A. Elmasri, Shamkant B. Navathe


운영체제 Operating System

내부구조 및 설계원리, 제8판 

윌리엄 스탈링스 

컴퓨터 보안, 컴퓨터 네트워킹, 컴퓨터 아키텍처 분야의 폭넓은 기술 개발의 이해에 특별한 기여를 해왔다. 이 주제에 관련된 여러 방면에서 18권의 교재와 개정판을 포함해 총 70권의 책을 저술했다. 그의 저작물은 IEEE 논문집와 ACM 컴퓨팅 리뷰(ACM Computing Reviews)를 비롯해 수많은 ACM과 IEEE의 출판물에 실렸다. 교재 및 학술 작가 협회(TAA, Text and Academic Authors Association)가 수여하는 올해의 컴퓨터과학 교재 상을 13번 수상했다.

기술 기여자, 기술 관리자 및 여러 첨단 기술 기업의 임원으로, 이 분야에서 30년 이상 몸담아 왔다. 마이크로컴퓨터에서 메인프레임에 이르는 다양한 컴퓨터와 운영체제에서 TCP/IP와 OSI 기반 프로토콜들을 설계하고 구현했다. 현재 독립 컨설턴트로 일하고 있으며, 고객으로는 컴퓨터 및 네트워크 분야의 제조업체와 고객, 소프트웨어 개발업체, 최첨단 정부 연구기관 등이 포함돼 있다.

컴퓨터 과학 학생을 위한 리소스 사이트인 ComputerScienceStudent.com을 만들어 운영 중이다. 이 사이트는 컴퓨터 과학 전공 학생(과 전문가들)이 일반적으로 관심 있을 다양한 주제의 문서와 링크를 제공한다. 또한 암호학의 모든 측면을 다루는 학술 저널인 크립톨로지아(Cryptologia)의 편집 위원이다.

스탈링스 박사는 MIT에서 컴퓨터 과학 박사학위를 받았고, 노트르담 대학에서 전기 공학 학사학위를 각각 받았다.

조유근

서울대학교 건축공학과에서 석사학위를 받았으며, 미국 미네소타 주립대에서 컴퓨터 공학 박사학위를 받았다. 현재 서울대학교 컴퓨터공학과 교수이며, 한국정보과학회 회장이다.


 

기초 통신이론

디지털 통신 중심으로 

통신에 대한 개념이 부족한 학생과 초보자들도 쉽게 이해할 수 있도록 통신 시스템의 기초 개념부터 간결하게 설명하고 있다. 수식은 최소화하고, 복잡한 그림보다는 개념을 바로 이해할 수 있는 직관적인 그림 위주로 단순화, 시각화하는 데 중점을 두는 한편, 통신 시스템을 이해하고 구현하는 데 기초가 되는 확률과 랜덤 프로세스에 대해 보다 쉽고 명확하게 설명하고자 했다. 디지털 통신을 강조하여 MAP 판정과 ML 판정까지 깊이 있게 다루어 실무자에게도 도움이 된다.

김영길

KAIST 전기 및 전자공학과에서 학사, 석사, 박사 학위를 취득하였다. 하이닉스 선임연구원을 역임했으며, 캐나다 앨버타주립대학교에서 박사후 연구원과 독일 두이스부르크-에센대학교에서 교환교수로 일하였다. 2003년부터 서울시립대학교 전자전기컴퓨터공학부 교수로 재직 중이다. 현재는 부호 이론을 이용한 MIMO 코드북 설계, 실내 위치 추적 문제에서 칼만 필터(Kalman filter)의 적용에 관해 연구하고 있다.

 


운영체제 아주 쉬운 세 가지 이야기


컴퓨터 네트워킹 하향식 접근


모두를 위한 클라우드 이론과 실습


 

데이터 마이닝

Pang-Ning Tan,Michael Steinbach,Anuj Karpatne,Vipin Kumar 저 / 용환승 역 외 4명

CHAPTER 1 서론

1.1 데이터 마이닝이란 무엇인가? 4

1.2 도전에 동기부여하기 5

1.3 데이터 마이닝의 기원 7

1.4 데이터 마이닝 작업 9

1.5 책의 범위와 구성 14

1.6 참고문헌 설명 15

1.7 연습문제 22

CHAPTER 2 데이터

2.1 데이터의 타입 26

2.1.1 속성과 측정 27

2.1.2 데이터 집합의 타입 34

2.2 데이터 품질 42

2.2.1 측정과 데이터 수집 문제 43

2.2.2 응용과 관련된 문제 50

2.3 데이터 전처리 51

2.3.1 총계 52

2.3.2 표본추출 54

2.3.3 차원 축소 57

2.3.4 특징 부분집합 선택 59

2.3.5 특징 생성 62

2.3.6 이산화와 이진화 64

2.3.7 변수 변환 70

2.4 유사도와 비유사도의 척도 72

2.4.1 기초 73

2.4.2 단순 속성간의 유사도와 비유사도 75

2.4.3 데이터 객체간의 비유사도 76

2.4.4 데이터 객체간의 유사도 79

2.4.5 근접도 척도의 예 80

2.4.6 상호 정보 90

2.4.7 커널 함수* 91

2.4.8 브레그만 발산* 96

2.4.9 근접도 계산의 문제들 98

2.4.10 올바른 근접도 척도의 선택 101

2.5 참고문헌 설명 103

2.6 연습문제 109

CHAPTER 3 분류: 기본개념과 기법

3.1 기본 개념 118

3.2 분류를 위한 일반적인 구조 122

3.3 의사결정 트리 분류기(Decision Tree Classifier) 124

3.3.1 기본적인 의사결정 트리 구축 알고리즘 126

3.3.2 속성 시험조건 표현 방법 130

3.3.3 속성 시험조건 선택 척도 132

3.3.4 의사결정 트리 귀납 알고리즘 142

3.3.5 응용 예: 웹 로봇 탐지 144

3.3.6 의사결정 트리 분류기의 특성 146

3.4 모델 과잉적합 154

3.4.1 모델 과잉적합의 원인 156

3.5 모델 선택 162

3.5.1 검증 집합의 사용 163

3.5.2 모델 복잡도 추가하기 164

3.5.3 통계적 한계의 추정 168

3.5.4 의사결정 트리를 위한 모델 선택 169

3.6 모델 평가 171

3.6.1 홀드아웃 방법 172

3.6.2 교차 검증 173

3.7 하이퍼 파라미터의 존재 175

3.7.1 하이퍼 파라미터 선택 176

3.7.2 중첩 교차검증 178

3.8 모델 선택과 평가의 문제들 179

3.8.1 훈련 집합과 시험 집합의 중복 180

3.8.2 일반화오류로 검증오류의 사용 180

3.9 모델 비교 181

3.9.1 정확도의 신뢰 구간 추정하기 182

3.9.2 두 모델의 성능 비교 184

3.10 참고문헌 설명 185

3.11 연습문제 194

CHAPTER 4 분류: 기타 기법

4.1 분류기의 종류 203

4.2 규칙 기반 분류기 205

4.2.1 규칙 기반 분류기가 작동하는 방식 208

4.2.2 규칙 집합의 속성 208

4.2.3 규칙 추출을 위한 직접적인 방법 210

4.2.4 규칙 추출을 위한 간접적 방법 215

4.2.5 규칙 기반 분류기의 특성 218

4.3 최근접 분류기(Nearest Neighbor Classifiers) 219

4.3.1 알고리즘 221

4.3.2 최근접 이웃 분류기의 특성 222

4.4 나이브 베이지안(Naive Bayes) 분류기 223

4.4.1 확률론의 기초 224

4.4.2 나이브 베이즈 가정 229

4.5 베이지안 네트워크 239

4.5.1 그래픽 표현 239

4.5.2 추론과 학습 245

4.5.3 베이지안 네트워크의 특성 253

4.6 로지스틱 회귀(Logistic Regression) 254

4.6.1 일반화된 선형 모형으로서의 로지스틱 회귀 256

4.6.2 학습 모델 매개 변수 257

4.6.3 로지스틱 회귀의 특성 259

4.7 인공 신경망 네트워크(ANN) 260

4.7.1 퍼셉트론 262

4.7.2 다계층 신경망 265

4.7.3 ANN의 특성 271

4.8 딥러닝(Deep Learning) 273

4.8.1 시너지를 가져오는 손실 함수 사용 274

4.8.2 반응형 활성 함수 사용 277

4.8.3 정규화 279

4.8.4 모델 매개변수의 초기화 282

4.8.5 딥러닝의 특징 286

4.9 서포트 벡터 머신(SVM) 287

4.9.1 분리 초평면의 여백 287

4.9.2 선형 SVM 289

4.9.3 소프트 마진 SVM 295

4.9.4 비선형 SVM 301

4.9.5 SVM의 특성 305

4.10 앙상블 기법(Ensenble Method) 307

4.10.1 앙상블 기법의 이론적 근거 307

4.10.2 앙상블 분류기 구축법 309

4.10.3 바이어스-분산 분해(Bias-Variance Decomposition) 311

4.10.4 배깅(bagging) 313

4.10.5 부스팅(boosting) 315

4.10.6 랜덤 포레스트(random forest) 321

4.10.7 앙상블 방법 간의 경험적 비교 323

4.11 클래스 불균형 문제 324

4.11.1 클래스 불균형을 가진 건물 분류 325

4.11.2 클래스 불균형으로 성능 평가 328

4.11.3 최적의 점수 임계치 찾기 333

4.11.4 종합적인 성능 평가 334

4.12 멀티 클래스 문제 341

4.13 참고문헌 설명 344

4.14 연습문제 358

CHAPTER 5 연관 분석: 기본 개념과 알고리즘

5.1 서문 371

5.2 빈발 항목집합 생성 375

5.2.1 원리 377

5.2.2 알고리즘에서 빈발 항목집합 생성 379

5.2.3 후보 생성과 가지치기 382

5.2.4 지지도 계산 387

5.2.5 계산 복잡도 392

5.3 규칙 생성 395

5.3.1 신뢰도-기반 가지치기 395

5.3.2 알고리즘에서 규칙 생성 396

5.3.3 예제: 의회 투표 기록 398

5.4 빈발 항목집합의 간결한 표현 399

5.4.1 최대 빈발 항목집합 399

5.4.2 닫힌 빈발 항목집합 401

5.5 빈발 항목집합 생성을 위한 대체 방법* 406

5.6 FP-Growth 알고리즘* 411

5.6.1 FP-트리 표현 411

5.6.2 FP-Growth 알고리즘에서 빈발 항목집합 생성 414

5.7 연관 패턴의 평가 418

5.7.1 흥미도의 객관적 척도 419

5.7.2 이진 변수 쌍을 넘어선 척도 432

5.7.3 Simpson의 역설 434

5.8 편향 지지도 분포의 영향 436

5.9 참고문헌 설명 442

5.10 연습문제 458

CHAPTER 6 연관 분석: 고급 개념

6.1 범주형 속성 처리 471

6.2 연속형 속성 처리 474

6.2.1 이산화-기반 방법 475

6.2.2 통계-기반 방법 479

6.2.3 비-이산화 방법 481

6.3 개념 계층 처리 483

6.4 순차 패턴 485

6.4.1 서문 486

6.4.2 순차 패턴 발견 489

6.4.3 시간 제약조건* 495

6.4.4 대체 계산 방법* 499

6.5 부분그래프 패턴 502

6.5.1 서문 503

6.5.2 빈발 부분그래프 탐사 507

6.5.3 후보 생성 511

6.5.4 후보 가지치기 516

6.5.5 지지도 계산 517

6.6 비빈발 패턴* 517

6.6.1 음의 패턴 518

6.6.2 음의 상관관계 패턴 519

6.6.3 비빈발 패턴, 음의 패턴 및 음의 상관관계 패턴 사이의 비교 521

6.6.4 흥미로운 비빈발 패턴을 탐사하는 기법 522

6.6.5 음의 패턴 탐사에 근거한 기법 523

6.6.6 지지도 기댓값에 근거한 기법 526

6.7 참고문헌 설명 530

6.8 연습문제 535

CHAPTER 7 군집 분석: 기본 개념과 알고리즘

7.1 개요 554

7.1.1 군집화 분석이란? 554

7.1.2 군집화의 종류 556

7.1.3 군집의 종류 557

7.2 K-means 561

7.2.1 기본 K-means 알고리즘 561

7.2.2 K-means: 기타 사항 572

7.2.3 이등분 K-means 574

7.2.4 K-means와 다양한 종류의 군집들 576

7.2.5 강점과 약점 579

7.2.6 최적화 문제로서의 K-means 579

7.3 병합형 계층 군집화(Agglomerative Hierarchical Clustering) 581

7.3.1 기본적인 병합형 계층 군집화 알고리즘 582

7.3.2 구체적인 기법들 584

7.3.3 군집 인접성에 대한 Lance-Williams 공식 590

7.3.4 계층 군집화의 주요 문제점 591

7.3.5 이상치 593

7.3.6 강점과 약점 593

7.4 DBSCAN 593

7.4.1 전통적 밀도: 중심 기반의 방법 594

7.4.2 DBSCAN 알고리즘 596

7.4.3 강점과 약점 600

7.5 군집 평가 600

7.5.1 개요 602

7.5.2 응집도와 분리도를 이용한 무감독 군집 평가 604

7.5.3 인접성 행렬을 이용한 무감독 군집 평가 612

7.5.4 계층 군집화의 무감독 평가 616

7.5.5 정확한 군집의 수 결정하기 617

7.5.6 군집화 경향 618

7.5.7 군집 유효성에 대한 감독 척도 620

7.5.8 군집 유효성 척도들의 중요도 평가 625

7.5.9 군집 유효성의 척도 결정 627

7.6 참고문헌 설명 629

7.7 연습문제 635

CHAPTER 8 군집 분석: 기타 주제와 알고리즘

8.1 데이터, 군집 및 군집화 알고리즘의 특성 646

8.1.1 예: K-means와 DBSCAN 비교 646

8.1.2 데이터 특성 647

8.1.3 군집의 특성 649

8.1.4 군집 알고리즘의 일반적인 특성 651

8.2 프로토타입 기반 군집화 653

8.2.1 퍼지 군집화 653

8.2.2 혼합 모델을 사용한 군집화 659

8.2.3 자기 구성 지도(SOM) 670

8.3 밀도 기반 군집화 676

8.3.1 그리드 기반 군집화 677

8.3.2 부분공간 군집화(Subspace Clustering) 680

8.3.3 DENCLUE : 밀도 기반 군집화를 위한 커널 기반 체계 685

8.4 그래프 기반 군집화 688

8.4.1 희소화 689

8.4.2 최소 신장 트리(MST) 군집화 690

8.4.3 OPOSSUM: METIS를 이용한 희소 유사도의 최적 분할 692

8.4.4 카멜레온(Chameleon): 동적 모델링을 사용한 계층적 군집화 693

8.4.5 스펙트럼 군집화 699

8.4.6 공유 인접 이웃 유사도(Shared Nearest Neighbor Similarity) 706

8.4.7 Jarvis-Patrick 군집화 알고리즘 710

8.4.8 SNN 밀도 712

8.4.9 SNN 밀도 기반 군집화 713

8.5 확장 가능한 군집화 알고리즘 716

8.5.1 확장성(Scalability): 일반적인 문제와 접근 716

8.5.2 BIRCH 718

8.5.3 CURE 721

8.6 어떤 군집화 알고리즘? 724

8.7 참고문헌 설명 728

8.8 연습문제 734

CHAPTER 9 이상치 탐지(Anomaly Detection)

9.1 이상치 탐지 문제의 특성 741

9.1.1 변칙의 정의 741

9.1.2 데이터의 성격 742

9.1.3 이상치 탐지 사용 방법 744

9.2 이상치 탐지 방법의 특성 744

9.3 통계적 접근 746

9.3.1 모수 모델 사용 746

9.3.2 비모수 모델 사용 750

9.3.3 정규 및 비정상 클래스 모델링 751

9.3.4 통계 유의성 평가 753

9.3.5 강점과 약점 754

9.4 근접성(proximity) 접근법 755

9.4.1 거리 기반 이상치 점수 755

9.4.2 밀도 기반 이상 점수 757

9.4.3 상대적 밀도 기반 이상치 점수 758

9.4.4 강점과 약점 759

9.5 군집화 기반 접근법 760

9.5.1 비정상 군집 찾기 760

9.5.2 비정상 인스턴스 찾기 761

9.5.3 강점과 약점 764

9.6 재구성 기반 접근법 764

9.6.1 강점과 약점 767

9.7 단일 분류(one-class classification) 768

9.7.1 커널 사용 768

9.7.2 원점 트릭(origin trick) 769

9.7.3 강점과 약점 774

9.8 정보 이론적 접근 774

9.8.1 강점과 약점 776

9.9 이상치 탐지 평가 776

9.10 참고문헌 설명 779

9.11 연습문제 786

CHAPTER 10 오탐 회피(Avoiding False Discoveries)

10.1 예비: 통계 검정(Statistical Testing) 792

10.1.1 유의도 검정(Significance Testing) 793

10.1.2 가설 검정(Hyphothesis Testing) 798

10.1.3 다중 가설 검정 803

10.1.4 통계 검정의 함정 812

10.2 귀무 및 대체 분포 모델링 815

10.2.1 합성 데이터 세트 생성 816

10.2.2 클래스 레이블 무작위 화 817

10.2.3 인스턴스 리샘플링(Resampling Instances) 818

10.2.4 검정 통계량 분포 모델링 818

10.3 분류를 위한 통계 테스트 819

10.3.1 분류 성능 평가 819

10.3.2 다중 가설 검정으로 이진 분류 820

10.3.3 모델 선택에서의 다중 가설 검정 822

10.4 연관 분석을 위한 통계 검정 823

10.5 군집 분석을 위한 통계 검정 831

10.5.1 내부 척도에 대한 귀무분포 생성 832

10.5.2 외부 척도를 위한 귀무분포 생성 833

10.5.3 농축(Enrichment) 834

10.6 이상치 탐지를 위한 통계 검정 835

10.7 참고문헌 설명 838

10.8 연습문제 845