일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- list
- coding
- request Method
- numpy
- deg2rad
- 비가변매개변수
- namedTuple
- DEEPLEARNING
- set_index
- 작업형
- 빅데이터분석기사
- heapmerge
- linalg.solve()
- BASIC
- 필답형
- kaggle
- np.savetxt()
- Python
- 가변매개변수
- Heapreplace
- 실기
- array
- Collections
- np.save()
- os.path.join
- matplotlib
- 빅분기
- 빅데이터
- Math Function
- np.load()
- Today
- Total
목록프론트 (HTML·CSS·JS) (3)
맞춤형 플랫폼 개발 도전기 (웹개발, 딥러닝, 블록체인)

이전에 본격적으로 데이터를 크롤링해보겠다고 했는데, Open API를 통해 데이터를 가져와 표로 만들어 보았다. Open API를 제공하는 곳은 많지만, 일단, 공공데이터를 가져와보았다. 보통 xml과 json으로 openAPI를 제공한다 인증키 값을 발급받아서 위 API에 key값을 넣으면 아래와 같은 내용을 볼 수 있다. 아래 노란색 박스를 보면 어떤 요소를 타고 데이터를 가져와야 하는지 그 구조를 알 수 있다. (json과 xml은 약간의 차이가 있지만 비슷하다.) 이러한 데이터들을 이제 본격적으로 JavaScript를 이용해서 가져와볼텐데, xml은 위의 서울 열린데이터 광장에서, json은 영화진흥위원회에서 가져와보겠다. HTML이나 CSS로 구조를 만드는 것은 기본적인 모습으로 만들었기 때문에..

HTML, CSS, Javascript를 모두 활용하는 실습을 해 보았다. 이 세가지를 다 해야하는 이유는 HTML은 화면의 구성을 담당하고, CSS는 화면을 꾸미는 스타일링 역할, JavaScript는 문서를 동작하게 한다. 따라서, 3가지를 다 알아야 웹페이지의 구성, 흐름을 알 수 있고 어떤 요소를 사용해서 데이터를 뽑아올지, 어떤 데이터를 사용자로부터 받아올지, 받아오려면 어떻게 화면을 구성해야되는지 등을 정할 수 있다. 그래서 이 세가지를 모두 해볼 수 있는 폼을 만들고, Script(JavaScript)를 통해서 입력값을 검증하는 과정까지 수행해보았다. radiobutton 중 어떤 것을 붙이느냐에 따라서 다른 영수증 종류가 나타나도록 했다. 조건문을 만족하면 div의 style.display..

HTML과 CSS의 기본적인 명령어들은 알아야 크롤링 등 여러 작업을 쉽게 할 수 있기에 빠르게 배워 적어보려 한다. (실제로 데이터(빅데이터) 분석을 하기 위해 웹크롤링 등으로 데이터를 끌어오려면 HTML과 CSS를 완벽하게는 아니더라도, 구성요소를 포함해 뭐가 어떤 것을 가리키는지 정도는 알아야 한다고 생각한다.) 그리고 독학한 것을 익히기에 직접 활용해서 만드는 것보다 좋은 것은 없기에 홈페이지를 구성해 보았다. 전에 말했듯이 독학한 내용을 확인하기 위한 것이라 많이 부족하다. 내부 구성은 Javascript를 배우고 나서 또 추가해보겠다. HTML은 대략 이렇게 구성해보았고, Login | Join HOME COMPANY SOLUTIONS CUSTOMER CENTER CONTACT US Ogu F..