분류 전체보기102 현대인의 필수영양소 아연 공부하기(영양제 추천) 아연 효능 0. 기본적인 세포기능 DNA복제, RNA전사, 면역세포기능, 대식세포, NK세포들의 정상작용에 관여함 1. 강력한 항산화제 활성산소를 제거해주는 항산화물질, 글루타치온의 합성을 증가시킨다 2. 신체 효소반응의 조효소로 작용 뼈, 눈, 신장, 간, 근육, 췌장, 전립선에 고농도로 존재하면서 대사, 소화, 신경기능 등 300개 이상의 효소반응에 조효소로 작용한다. 3. 감기 치료 효과 유명한 연구결과로서, 사탕형태(로젠지)로 아연을 매일 75mg씩 섭취하면 감기의 발병기간과 증상이 줄어든다. 하지만 이는 고용량이므로 1주일이상 장기투여 X 4. 여드름 치료 효과 30mg씩 먹었을 시 여드름 완화 효과가 증명되었다. 아연의 부작용이 빈번하므로 1일 30mg을 넘기지 않는 게 좋다. 아연 손실 원인.. 건강정보 2023. 1. 11. 무시할 수 없는 칼륨 이해하기 (Potassium, 포타슘) 역할 세포가 존재할 수 있는 원초적인 역할을 한다. 세포 안에 존재함으로써 Na-K 펌프를 작동시킨다. 이 나트륨-칼륨 펌프는 하루 인체 총 에너지의 60%정도가 쓰일 정도로 중요한 생명활동이며 칼륨의 90%정도가 Na-K펌르르 작동시키는 데 사용된다. 그만큼 우리 몸 전반에 영향을 미치는 중요한 미량영양소 체내 포타슘 고갈 측정? 혈액검사로 칼륨량을 측정하는 방법이 있다. 이를 두고 고칼륨/저칼륨혈증을 판단한다. 하지만 이는 세포외액(혈액)의 칼륨량을 판단하는 것일 뿐, 세포 내 칼륨량을 판단할 수 없다. 90%이상의 칼륨이 세포 내에 존재하기 때문에 우리가 칼륨부족상태에 있는지는 검사로 알기 어렵다. 즉 검사로 결핍을 정확하게 판단하기는 어렵다는것 체내 혈액 칼륨량 (저칼륨혈증) 3.5 - 5.5 (.. 건강정보 2023. 1. 10. 2023년 마그네슘의 모든것 (결핍증상, 제품추천) 개요 마그네슘의 기본적인 역할부터, 마그네슘 손실이 일어나는 이유, 이로인한 결핍 증상들과, 어떤 마그네슘을 어떻게 섭취해야하는지까지 지난 수년간 마그네슘 결핍으로 많이 아파왔기 때문에 많은 자료조사와 연구를 진행했다. 마그네슘의 역할 1. 인체 구성요소 마그네슘은 인체의 모든 장기, 특히 심장, 뼈, 근육, 신장에서 많이 사용되는 필수 영양소이다. 3,751개의 단백질에 마그네슘 결합부위가 존재함이 확인되었을 정도로 인체의 모든 부분에 마그네슘이 필수적으로 사용된다. 2. 인체의 전반적인 대사기능에 관여 현재까지 연구되고 알려진 바로는, 마그네슘이 약 300종 효소작용에 관여하는 조효소 역할을 한다는 것. 인체의 전반적인 대사기능에 필수적인 역할을 한다. 3. 미토콘드리아의 에너지대사에 관여 우리 몸의.. 건강정보 2023. 1. 5. Ensemble Learning 6: XGBM python native Introduction 지난번에 XGBM의 이론적인 부분들에 대해서 포스팅했다. 너무 길어서 한번 자르고, 이번에는 실제 코드를 써보는 걸 정리해보자! 결국 이론만 알아서는 금방 잊기 쉽기때문에 꼭 코드로 실습해봐야한다. dlmc 개발그룹에서 XGBoost를 개발하고 있는데, 처음엔 C/C++이었다가, R과 파이썬에서도 사용할 수 있게 호환되었다가, 이후 사이킷런이 흥하면서 사이킷런 wrapper용으로도 XGBoost를 확장했다. 이번엔 사이킷런이 아닌 파이썬 native 코드를 실습해보자! 실습 코드 유방암 데이터세트->DMatrix 변환 import pandas as pd from sklearn.datasets import load_breast_cancer from sklearn.model_selec.. PL/Python 2022. 12. 26. Ensemble Learning 5: XGBM - 이론 파트 Introduction 지난 시간에 Adaboost와 GBM에 대해 간단하게 정리했다. 이번에는 XGBoost에 대해서 정리해보자. XGBoost 소개 eXtreme Gradient Boost. 단어 자체에서 알 수 있듯, Gradient Boost (GBDT, GBM)을 기반으로 동작하는 머신러닝 알고리즘이다. 그래디언트 부스트보다 분류나 회귀에서 뛰어난 예측 성능을 보여준다. CPU 병렬처리와 GPU를 지원하기 때문에 GBM보다 학습속도가 빠르다. 하지만 LightGBM등 다른 앙상블 계열의 알고리즘보다 느린 편. 다양한 성능 향상 기능이 있다. GBM에 없던 Regularization과 Tree pruning이 추가되었다. 다양한 편의 기능이 추가되었다. Early Stopping, 자체 내장된 교.. PL/Python 2022. 12. 22. Ensemble Learning 4: 그래디언트 부스트 GBM Introduction 지난 시간에 앙상블 학습의 유형 중 하나인 Boosting에 대해 다루며 AdaBoost에 대해 적었다. 이번에는 GBM, 그래디언트부스트에 대해 정리한다. GBM Gradient Boost Machine의 약자. 그래디언트 부스트라고도 한다. 그래디언트 부스트는 현대 머신러닝 알고리즘의 선두주자로, 정형데이터의 분류나 회귀에서 딥러닝에 필적할 정도의 높은 성능을 자랑한다. 에이다부스트와 유사하지만, 가중치 업데이트에 경사 하강법을 이용한다는 것이 다르다. 경사하강법 오류 값은 '실제값 - 예측값'으로 계산한다. 피쳐 x1, ... xn에 대해서 예측함수를 F(x), 실제값을 y라고 할 때 예측 에러인 손실함수 h(x)는 y-F(x)로 쓸 수 있다. 이 h(x)값을 최소화하는 방향.. PL/Python 2022. 12. 22. Ensemble Learning 3: 부스팅 기초, Adaboost Introduction 이번엔 부스팅에 대해서 알아보는 시간. 부스팅이 무엇인지 개념부터 시작하여 에이다부스트 AdaBoost 에 대해 간단히 정리해보자. Boosting 부스팅은 여러 개의 단순한 학습기(weak learner) 들을 '순차적'으로 학습하는 앙상블 모델이다. 학습 도중 매 단계에서 잘못 예측한 경우에 대해 가중치 weight를 업데이트해 오류를 개선한다. 순차적으로 학습하기 때문에 병렬학습하는 Random Forest보다 학습 시간이 길다. 부스팅의 대표적인 구현은 에이다부스트(AdaBoost, Adaptive Boosting), 그래디언트 부스트(GBM), XGBoost, LGBM(Light GBM)등이 있다. 차례차례 하나씩 알아볼 예정이며, 이 글에서는 AdaBoost에 대해 다룬.. PL/Python 2022. 12. 22. 쉬어가기: GridSearchCV 하이퍼파라미터 튜닝 관련 질문 Introduction Random Forest를 실습하던 도중 생긴 의문점에 대해 직접 해결하려고 했는데 해결하지 못했다. 나중에 혹시 해답을 얻을까, 혹시 지나가던 누군가 알려줄까 해서 기록해놓는다. 코드 GridSearchCV를 적용하였는데도 불구하고, f1스코어가 더 낮아졌다. 물론 샘플 수가 작아서 그런것이겠지만, GridSearchCV가 max_depth=4일 경우가 None일 경우보다 더 낫다고 생각하여 고른것으로 보이는데, 왜 최종 예측값은 더 낮아진 것인지 궁금하다. from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split from sklearn.ensemble im.. PL/Python 2022. 12. 22. Ensemble learning 2: 배깅 Bagging, 랜덤 포레스트 Introduction 지난 시간에는 앙상블 학습의 개념과 보팅Voting에 대해 다뤘다. 이번에는 배깅Bagging이 무엇인지 알아보고, 랜덤 포레스트 분류기를 실습해보자. 배깅(Bagging) 용어부터 정리하자. 배깅은 Bootstrap Aggregating을 줄인 말로, 부트스트래핑 방식으로 Aggregation(집계)하였다는 의미가 된다. 부트스트래핑은 통계학에서 유용하게 사용되는 방식으로, 간단히 말하면 모집단의 샘플 갯수만큼 복원추출해 데이터셋을 구성하는 방법을 말한다. 모집단이 1부터 10까지의 정수일때, 3개의 부트스트랩 분할을 한다고 하면 아래와 같이 3개의 서브 데이터셋이 구성된다. out-of-bag dataset 줄여서 oob. 부트스트래핑 방식으로 서브셋을 나눴을 때, 해당 서브셋.. PL/Python 2022. 12. 16. [코드 스터디] UCI-HAR 데이터셋3: 결정트리 적용 Introduction 일전 스터디 UCI-HAR 데이터셋2 포스팅에서, 중복칼럼들을 확인하고 리네이밍 하는것까지 진행했다. 이번에는 결정트리에 그리드서치를 적용하여 최적 하이퍼파라미터를 찾고, 어떤 피쳐가 가장 큰 영향을 미쳤는지 그래프까지 그려볼 예정이다. dataset preprocessing 이전 포스팅을 요약한 코드. 중복 피쳐명을 수정하는 로직을 get_new_feature_name_df() 함수로 만들어 각 데이터셋에 적용한다. 결과적으로 바로 사용할 수 있는 X_train, X_test, y_train, y_test를 얻었다. import pandas as pd def get_human_dataset( ): # 각 데이터 파일들은 공백으로 분리되어 있으므로 read_csv에서 공백 문자를 .. PL/Python 2022. 12. 15. Decision Tree Classifier: 하이퍼파라미터 정리 Introduction 결정트리 Decision Tree Classifier의 하이퍼파라미터들을 가볍게 정리해보자. 하이퍼파라미터 결정트리의 최대 단점인 과적합을 피하기 위해 하이퍼파라미터들은 결정트리의 분화를 방지하는 역할인 것들이 많다. max_depth 트리의 최대 깊이. default값은 None. None값일 경우, 완벽하게 클래스 결정값이 정해질 때까지 결정나무가 자랄 수 있다. 물론 max_depth가 None이어도 min_samples_split 설정값에 걸려 무한히 분할하기는 어렵다. min_samples_split 노드를 분할하기 위한 최소 샘플 데이터 수. deault값 2. 즉 리프노드의 샘플 수가 최소 2는 되어야지 분할 가능하다는 뜻. 예를 들어, min_samples_split.. PL/Python 2022. 12. 15. Ensemble learning 1: 앙상블 학습의 개념, 보팅 voting Introduction 드디어 앙상블 러닝을 배운다. 예전부터 개념은 알고 있었지만, 코딩을 시작하는건 처음.. 다시 천천히 정리해보자. 앙상블 학습(Ensemble Learning) 여러 분류학습기(estimators)들을 생성하고 예측을 결합하여, 단일 분류기가 가진 것보다 더 나은 예측결과를 도출하기 위한 기법을 말한다. 넓은 의미로 앙상블 학습은 서로 다른 모델을 결합한 것을 얘기하기도 한다. 앙상블 학습의 유형으로 보팅 voting, 배깅 bagging, 부스팅, boosting, 스태킹 stacking 등이 있다. 특징 앙상블 학습은 여러 모델들을 결합함으로서 단일모델들의 약점을 보완하는 방식이다. 따라서 뛰어난 성능을 가진 모델로만 구성하는 것보다, 성능이 떨어지더라도 서로 다른 유형의 모델.. PL/Python 2022. 12. 15. 이전 1 2 3 4 ··· 9 다음