@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

All in ONE SEOはヘッダーをゴニョゴニョしてくれるだな😌
2022.03.16
All in ONE SEOはヘッダーをゴニョゴニョしてくれるだな😌という事で自分でヘッダー部分にタイトルやソーシャル用のタグを基準する必要ないのです。
因みに個別記事に関連記事が入っているとそれがタイトル名になる場合がありますので、そこらへん関連記事の構造を意識する必要があります。その事を知らなかったので一時タイトル名が違ったタイトル名が表示されていました。
SEO的にどれぐらい効果があるかは不明ですが、ワードプレスで開発するときにAll in ONE SEO入れておくと勝手にそこらへん記述がコードに挿しこむ事が出来るので結構便利かと思います。
ただ、プラグインですからね、無名なプラグインを使っていると痛い目にあう事もあるので注意が必要です。もし無名なプラグインで良いのがあったら似たような動作で自作プラグインを作ったほうがマシです。何もかも人様のプラグインを使っていると後々のメンテナンスで痛い目にあいますし、下手をするとプラグインとともに共倒れって事さえありますので、プラグイン導入は慎重にした方が良いです。
特に企業サイトの運営にむやみにプラグイン導入は間違いなく害悪です。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
all, in, one, SEO, コード, ゴニョゴニョ, ソーシャル, そこら, それ, タイトル, タグ, とき, どれぐらい, プラグイン, プレス, ヘッダー, べん, まし, メンテナンス, ワード, 一, 不明, 事, 人様, 何もかも, 便利, 個別, 効果, 動作, 勝手, 基準, 場合, 後々, 必要, 意識, 構造, 注意, 無名, 的, 目, 自作, 自分, 表示, 記事, 記述, 部分, 開発, 関連,

開発レビューした事がないが嫌いな人からレビューされたら。
2022.03.15
運悪く開発レビューした事がないので、今までコードに文句言われたことが殆どない、唯一Qiitaでコメントで指摘してくれるエンジニアはいるのですが、それ以外ないのです。でも嫌いな人からレビューされたら自分は心が狭いのでムカってなると思います。
そこらへん、皆さんどう思われているのでしょうか?
コードを書き直されるのは自分はあまりうれしくないですね。わざとわかり易く書いている部分があったりします。確かにコードを短くすることが出来るのだけど、それが正しいことなのかとは思わないタイプの人間です🤔。
駆け出しエンジニアにもわかり易く書くことのほうが、結果的に言えば自分に質問してくる事がなくなり自分の仕事に集中することが出来ると思っています。
これに関しては皆様が是々非々で判断してください😌。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
qiita, エンジニア, コード, こと, コメント, これ, そこら, それ, タイプ, ムカ, レビュー, 事, 人, 人間, 仕事, 判断, 唯一, 嫌い, 心, 指摘, 文句, 是々非々, 殆ど, 皆さん, 皆様, 自分, 質問, 部分, 開発, 集中, 駆け出し,

新サービスをいま作っています、お披露目はさくらレンタルサーバー、Newサーバ…。
2022.02.10
今日の朝は雨がシトシトと降っていますね☔。昼からは高知県、晴れるそうです。
新サービスをいま作っています、お披露目はさくらレンタルサーバー、新サーバーがリリース後になります、いま、大枠のデザインとHTMLコードを書いています、バックエンドの部分はこれからです。
尚、このサービスはさくらレンタルサーバーのNewサーバーで出来れば運用したいと思っています、何故なら新サーバーでは、表示速度が今までと違いかなり早くなったそうです。そしてセキュリティ面もありますから、そこらへんを心配しないで良いというのは心配しないで開発だけに没頭出来ますからね。
因みにどんなサービスかといえば、掲示板なのですが2chなどと違って、今作っている掲示板では競合が少ない分野でこれからも伸びそうな分野の掲示板です。その掲示板を開発して3月頃から運用していきたいなって思っています。リリース後にこちらでもアナウンス(報告)したいなって思っていますので、ブログチェックしてみてください。よろしくお願い致します。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 3, ch, html, new, アナウンス, いま, エンド, お披露目, かなり, コード, こちら, これ, サーバ, サーバー, サービス, さくら, セキュリティ, そこら, デザイン, バック, べん, リリース, レンタル, 今, 今日, 分野, 大枠, 心配, 掲示, 昼, 朝, 没頭, 競合, 表示, 速度, 運用, 違い, 部分, 開発, 雨, 高知県,

ITエンジニアという生き方とか語りだした。
2020.12.23
最近、ITエンジニアという生き方とか語りだした人たちが大勢いて、エンジニアの地位も少しは高くなった気がする、今日この頃です。
一昔前までは「ブラック会社に勤めてるんだが、もう俺は限界かもしれない」という映画がIT界隈では流行ったほど、IT界隈はブラックな会社が多かったように思えます。実際、いまでもブラックな会社は結構あると感じます。
働き方改革でフリーランスエンジニアが増えてきているとの事ですが、自分はどちらかと言えば働き方改革にはやんわり反対側です。働き方改革で仕事は軽くなった分、お給料も減りました、そんな中、いまITエンジニアが高給取りだということで多くの人がITエンジニアなりたいと志願していますが、現実は10年以上まえから変わっていないと思いますよ。
大手の花形エンジニアはよくわからないですが、そこらへんのITエンジニアは然程しか変わっていない。根底にあるのは「ブラック会社に勤めてるんだが、もう俺は限界かもしれない」だと思います。ブラックな会社にするのもしないのも、上司や社長の考え方だと思います。あと納期ですね、めちゃくちゃな納期だとめちゃくちゃな構造の成果が生まれます。見かけ上動いているだけのそんなものが生まれ、そのシステムに継ぎ接ぎだらけのパッチが混入し、長年勤めていないとそのロジックがわからないなんて事になります。
そんな会社は地方ではいまでも存在します。何が言いたいかといえば、ITエンジニアなんて、そんなに良いものではないですよということです。好きな人は好きだと思うのだけど、好きでもない人はやはり諦めるときが来ると思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, IT, いま, エンジニア, お給料, こと, そこら, どちらか, ブラック, フリー, べん, ほど, まえ, ランス, 一, 中, 事, 人, 今日この頃, 仕事, 会社, 俺, 働き方, 分, 反対, 地位, 多く, 大勢, 大手, 実際, 少し, 志願, 改革, 昔, 映画, 最近, 根底, 気, 現実, 生き方, 界隈, 自分, 花形, 限界, 高給取り,

鳴子を機械学習で認識させる事が出来たよ!
2020.09.02
高知県なのでよさこい、よさこいと言えば鳴子を持って踊るがルール。
鳴子を持っているかを判断する機械学習を作ってみようという事で今回の考えが思いつき、早朝から機械学習で鳴子認識させる事に取り組んでみました。
難易度はかなり低いのでそこらへんのITエンジニアなら出来ると思います、出来なければITエンジニアなのかな?と思ってしまうぐらいの難易度かと思います。
大変だったことは教師あり学習なので認識させるのが面倒だった。
鳴子の写真を30枚ぐらい機械学習で認識させました、、、。
今回、使用した機械学習のライブラリはDlib(ディーリブ)というものです、
ググるとインストール方法からプログラム方法まで参考サイトが結構あります。
自分のサイトでは機械学習させた後、静止画を認識させるコードを掲載しときます。
import cv2
import dlib
detector = dlib.simple_object_detector("yosakoi.svm")
image = cv2.imread("yosakoi.jpg")
naruko =detector(image)
for f in naruko:
print("left, top, Right, bottom : ", f.left(), f.top(), f.right(), f.bottom())
cv2.rectangle(image, (f.left(), f.top()), (f.right(), f.bottom()), (255,0,0), 2)
print("{} naruko".format(len(naruko)))
photo = dlib.image_window()
photo.set_image(image)
photo.add_overlay(naruko)
cv2.imwrite("yosakoi-naruko.jpg",image)
因みに動画も認識させてみようと思ったのですが、こちらは上手く認識できなかったです・・・。
鳴子の機械学習モデルを置いときますのでご自由に使用ください。
学習したモデルを読み込んで上記のソースコードで試してみてください、尚、リナックス環境で動作します!!?
鳴子機械学習モデル?ダウンロード?
https://zip358.com/ML/YOSAKOI/yosakoi_Model.zip
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 30, cv, detector, Dlib, import, IT, object, qu, simple, インストール, エンジニア, かなり, コード, こと, サイト, そこら, ティー, プログラム, べん, もの, よさこい, ライブラリ, リブ, ルール, 事, 今回, 使用, 写真, 判断, 参考, 大変, 学習, 後, 掲載, 教師, 方法, 早朝, 機械, 自分, 認識, 難易, 静止画, 面倒, 高知県, 鳴子,
テストサーバーを適当に立ち上げる。
2020.06.02
テストサーバーを適当に立ち上げる方法を録画してみました。
最初の動画はselinux 無効などはしていませんが、それをしないと誤作動というか上手く動かなくなるのでご注意を!!
ちなみにファイヤーフォールの設定などはググりながらお勉強ください。動画ではそこらへんもググりながら設定しています。あんまりサーバー系のコマンド覚えていないだよね。サーバーの考え方がなんとなく頭に入っている程度です。
ちなみにこれをローカルサーバーじゃなくてVPSでサーバーとして公開するならばWAF(わふ)とかその他、いろいろな設定をすることをオススメします。尚、さくらレンタルサーバーのブログはいいよ!?
尚、cgi-binでPHPのバージョンを分ける動画は、ちょっと見るだけでは出来ないかもしれませんが・・・ヒントを2、3書いときますね、あとコマンドも例として記載します。
まずcentOS8の最小インストールでPHP7.4系を使う場合は鬼車(おにぐるま)が入っていないので入れなければなりません。そんな具合にインストールしていないものはガンガン入れていこうぜという具合です(*´?`*)
dnf --enablerepo=PowerTools install oniguruma-devel
これを全部入れることができればPHPの違うバージョンでも何とかなりますよ。ちなみにPHP5系とかは下記のようなものを入れるのであって、同じじゃないよ。同じものも有るけれど記述が違うので注意してくださいね。過去のものはググれば結構表示されます。
./configure \
--prefix=/var/www/php-7.4.6 \
--with-config-file-path=/var/www/php-7.4.6 \
--with-config-file-scan-dir=/var/www/php-7.4.6 \
--with-zip \
--enable-gd \
--with-jpeg \
--with-xpm \
--with-zlib \
--with-gettext \
--enable-bcmath \
--enable-sockets \
--enable-opcache \
--enable-exif \
--with-curl \
--with-bz2 \
--enable-calendar \
--enable-inline-optimization \
--with-expat \
--enable-mbstring \
--enable-mbregex \
--with-freetype \
--with-openssl \
--with-mysqli \
--with-pdo-mysql \
--with-mysql-sock=/var/lib/mysql/mysql.sock
最後にcgi-binってインストールしたPHPのphp-cgiを参照しているだけです。シンボリックリンクで!!!
あとは・・・。
Apacheグールプにオリジナルのユーザーを追加してあげて!!。尚、最初の動画はrootで動かしているだけどね。基本的にrootではなくユーザー追加してそれをApacheグールプ追加するのさってヒントも書いときますね。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 3, 7.4, 8, centOS, cgi-bin, php, selinux, VPS, WAF, いろいろ, インストール, おすすめ, お勉強, こと, コマンド, これ, ご注意, サーバー, さくら, そこら, その他, それ, テスト, バージョン, ヒント, ふ, ファイヤー, フォール, ブログ, べん, レンタル, ローカル, 使, 例, 公開, 動画, 方法, 最初, 最小, 無効, 程度, 考え方, 記載, 設定, 誤作動, 適当, 録画, 頭,

YOUTUBER、さっさん!
2020.05.22
元々、ブロガーさんだった人がブロガー兼YOUTUBERとして活躍されている方です。このひと、じわじわ伸びていきそうなYOUTUBERさんなので紹介します。底辺YOUTUBEと語っているが、そこらへんのサラリーマンの収入は軽く超えていますよ、収益発表とかを聞いているとわかりますが・・・。
YOUTUBEの内容はガジェット系のレビューを主に行っています。自分もガジェット購入の時に参考にしました、YOUTUBEで大事なのは信頼できる情報が発信されているか、どうかだと思います。特に商品を扱うレビュー系の動画はそれが一番大事になるかと思います。
伸びそうなYOUTUBERって徐々に分かってきました。親しみやすさと信頼できる人が大事なのだと後は共感できる人かどうかなどが大切になるのだなと思います。これらの事は巷でも結構、言われていますがやはりこれ大切だと!
最後にYOUTUBEチャンネル登録はこちら
https://www.youtube.com/user/makop9
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
youtube, YOUTUBER, ガジェット, こちら, これ, これら, サラリーマン, そこら, それ, チャンネル, ひと, ブロガー, べん, レビュー, 事, 人, 信頼, 元々, 共感, 兼, 内容, 動画, 参考, 収入, 収益, 商品, 大事, 大切, 巷, 底辺, 後, 情報, 方, 時, 最後, 活躍, 発信, 発表, 登録, 紹介, 自分, 親しみやすさ, 購入,
やっぱり違うなと中身は若いと感じます。
2020.05.07
ノーベル化学賞・吉野彰さんはやっぱり違うなと中身は若い感覚を持っています。ITの事も理解しています、そこらへんのお爺さんやお婆さんとは一線を画するひとだなとトヨタイムズの動画を見て思いました。やはり毎日積み重ねて勉強されている人だなと思い、老いても毎日の勉強していれば世の中を見ることが出来るだなという事を気づかせてくれるひとだなと。
長いスパンで物事を見るには目の前の私利私欲を捨てて見ることが大事だと話されています。未来を見据えて行動するということは、中々難しいことだと思いますが自分も長期的に物事をみて今後を考えていこうと思いました、この前半、後半に別れた動画だけど見る価値の有る動画だと思いますので、ご興味のある方は是非見てください。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
5, com, https, IT, oVA, watch, wUZy-pY, www, youtube, イムズ, お婆さん, お爺さん, こと, スパン, そこら, トヨタ, ノーベル, ひと, べん, 一線, 世, 中, 中身, 事, 人, 今後, 価値, 前, 前半, 勉強, 動画, 化学, 吉野彰, 大事, 後半, 感覚, 方, 未来, 毎日, 物事, 理解, 目, 私利私欲, 自分, 興味, 行動,
今より未来が好きですね。
2020.03.01
今より未来が好きですね。
未来は変わる未来は良くなると思って生きていくと本当に
良くなるだってさ。まぁそうだよなと思ってないと面白くないしょ!
まぁ下記の歌詞にあるように自分は『明日が大好き』なんですよ。
だから希望を思って生きていけば良いことあるですよ。
それが早いか遅いかわからないですがね。良いことも見えていないなら
それは心が疲れているです。情報社会で生きていると心が疲れてくる。
そこらさっと抜け出す方法を手にすることは大事です。
『それでもいいや』という考え方は大事だと思います、受けとめるのに時間のかかることも世の中には有るですけどね。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 5, Ci-, com, https, lr-DA, watch, www, youtube, こと, しょ, そこら, それ, 下記, 世, 中, 今, 大事, 希望, 心, 情報, 手, 方法, 明日, 時間, 未来, 本当, 歌詞, 社会, 考え方, 自分,
漫画家もYOUTUBERしている。
2020.02.12
漫画家もYOUTUBERしている。下記の動画を観てプロフェッショナルってどういう事なのかが、ヒシヒシと伝わってきます。恐らくプロとアマの違いは妥協するハードルの設定が違う。要するに技術的なところが圧倒的に違うということ。そこがプロとアマの境目なんだろうと動画を観て思いました。
そして自分の動画やブログを読み返したり見返したりする事があるのですが、甘々なアマから抜け出せないのは、そこらへんのクオリティに拘るとかそういう所なのかもしれないなと思います。有名なひとはクオリティがあまり無くても視聴者はつきます、特に芸能人とかはそんな感じですね。
自分みたいな無名な素人はクオリティが無いと再生回数やブログのプレビュー数は跳ねないなとつくづく思います。いきなりクオリティが良くなるわけではないのでやはり日々、精進していくしかないと思います。ちなみに今日からYOUTUBE動画、実の声で配信することにしました。実の声は嫌いなのですが動画を見直すと少しうるさく感じるので変えてます。あとは解説をもっと上手にしたいのですが、コレばかりは慣れかなと思います。大量に解説すれば何れ上達すると思っています。無編集の状態でUPしているのですがなんか加工した方が良いのかなと思っていますが解説動画なので悩ましい限りです。
最後に漫画家さんのYOUTUBEチャンネルのリンクを貼っときます。 https://www.youtube.com/channel/UCeySBnV71dyC-gwqapq9NwQ
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
youtube, YOUTUBER, アマ, クオリティ, こと, そこ, そこら, ところ, ハードル, ひと, プレビュー, プロ, ブログ, プロフェッショナル, べん, わけ, 下記, 事, 今日, 再生, 動画, 回数, 境目, 声, 妥協, 嫌い, 少し, 感じ, 所, 日々, 有名, 漫画家, 無名, 甘々, 精進, 素人, 自分, 芸能人, 視聴者, 設定, 違い, 配信,
システムエンジニアの1日を撮ったvlog(one day)
2020.01.30
システムエンジニアの1日を撮ったvlogが海外では流行っていたのか、結構検索するとヒットする、大手のIT企業で働いている人もvlogを撮っているので興味のある方は視聴してみてはどうだろうかと。日本の場合、IT企業が宣伝目的で撮ったvlogは結構あるものの、個人が自分の1日を撮った動画はかなり少ない。これが日本と海外の差でもあるなと感じました。
見ていただけると分かる通り、やっていることはそこらにいるシステムエンジニアやプログラマーと変わりはあまり無い、ただ、そこに書かれているコード内容が違う、そして一番違うのは彼らの働いている環境がブラックIT企業とは、雲泥の差があるという事だ。彼らと同じような環境に近づけたいのならば、フリーランスのエンジニアとして働くのが一番理想に近くなる可能性が高いが、全責任は自分自身に降りかかるので、そこだけは注意したほうが良さげ。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
-brF, 1, 6, com, day, IT, one, SUXbns, Vlog, youtube, エンジニア, かなり, コード, こと, これ, システム, そこ, そこら, ヒット, ブラック, フリー, プログラマー, ランス, 事, 人, 企業, 個人, 内容, 動画, 可能性, 場合, 大手, 宣伝, 差, 彼ら, 方, 日本, 検索, 海外, 理想, 環境, 目的, 自分, 自身, 興味, 視聴, 責任, 通り, 雲泥,

プログラムの基礎しか書かないわけ。
2019.11.27
何故、自分のブログには基本的なプログラミングしかなく複雑なプログラムが存在しないわけはこちらです。
基本的な文法から複雑なプログラムが生まれるので基本的な部分がわかれば大体の人は応用できるだろうと
考えているからです。
自分の場合、勉強と経験からコードを組み立てています。人から教わらないけれど、ググると無数のコードと
解説が存在します。そんな先人が残したコードを読み取り習得するという形と参考書から情報を得たりして経験値を
積んでいます。
職場でプログラムを教わったことは今までほぼほぼ無いです。本当はOJTがあって然るべきだと思いますが中小企業に入るとそんなに甘くはないですね。
今の人はYOUTUBEなどでも無料でプログラミングの知識を取得することも可能です、そこらへんが少し羨ましいです。
ちなみに自分は教えられていないので後輩には自分が知っていることは教えるということを現場では心がけていました。知識って共有して向上するのですがブラック企業は技術を教えない技術は盗み取るものだという考え方が未だに根強いです。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
OJT, youtube, コード, こちら, こと, そこら, プ, ブログ, プログラミング, プログラム, べん, わけ, 中小企業, 人, 今, 何故, 先人, 共有, 勉強, 参考書, 取得, 可能, 向上, 基礎, 場合, 大体, 存在, 少し, 形, 後輩, 応用, 情報, 文法, 本当, 無数, 無料, 現場, 知識, 経験, 習得, 職場, 自分, 複雑, 解説, 部分,
LCCで高知東京間往復(ジェットスター)が2018年内にサービスはじめるよ
2018.08.30
LCCで高知東京間往復(ジェットスター)が2018年内にサービスはじめるよ。
自分としては待ちに待ったLCCです。
成田から東京まで1000円ちょっとですから、本当、「ちょっと東京まで行ってくる」が
気軽にできるようになります、これは大きいです。
懸念は、高知の治安が少し悪くなるかもしれないということですね。
そこらへんは、分かっているでしょうから対策を打つでしょう。
ただ、日に2便だけぽっい、せめて3便はでてほしいですね。
たぶん、便が増えるにはどれぐらいお客さんが着くかだと思います。
ともあれ、LCC決定して良かった!!
ちなみに一週間前ぐらいに社長から言われた一言で考え方が変わりました。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2018年内, LCC, サービス, ジェットスター, そこら, どれぐらいお客さん, 一言, 便, 対策, 少し, 懸念, 成田, 旅, 朝日文庫, 治安, 社長, 考え方, 高知東京間往復,
安倍政権もういい。
2017.05.21
安倍政権もういい。正直飽きた。
誰から支持率得ているのかわからないけれど
自分の中では安倍政権もいい、辞めていただきたいですね。
政権交代していただきたい、アベノミクス効果とかで景気が
回復したわけではないですよね。
そこらへん、国民は気づかないといけない気がします。
そして景気が回復すると政治にあまり関心を示さなくなるのが
世の常なんです、こういうときに政治家はここぞと言わんばかりに
法案成立させていくです・・・。
こういうことが後に面倒くさいことになるので
辞めていただきたいと思っています。
安倍首相、そろそろ首相の座から降りていただきたいですね。
もう十分です、真面目ぽっいので・・・
スキャンダル的な要素がなく落としようがない安倍首相・・・。
たぶん、安倍首相に降りていただきたいですねと思っている
自民党幹部はいるはずです。
そしてNHKが行っている支持率の調査って
なんだか信用ができない都市部だけで調査しているじゃないのかと
地方の声があまり届いていない気がします。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
B06WVBNQTG, PHP新書, アベノミクス効果, スキャンダル的, そこら, 世の常, 嘘八百, 安倍政権, 安倍首相, 支持率, 政治報道, 政治家, 景気, 法案, 真面目ぽっいの, 自民党幹部, 都市部, 面倒くさいこと,
映画、ファンタスティックビーストと魔法使いの旅の感想。 #映画レビュー
2016.11.23
映画、ファンタスティックビーストと魔法使いの旅の感想を残しときます。
ハリーポッターシリーズの新シリーズだということ、新書が出たことしか認識がなく、今までのハリーポッターシリーズを全部観ていたわけでもないので、全然わからないかもなとか思っていたのですけど、実際はそうでもなく。
意外にも楽しめた映画でした。
自分としてはもう少しクセのあるストーリー展開を望んでいたのですがそこらへんは有りませんでしたが、ラストの終わり方は結構良いなと感じました。
ちなみに10:30の字幕版を観に行ったのですが、9割席が埋まっていました。ハリーポッターシリーズは根強い人気なんだなぁと改めて実感しましたね。
そして今回のファンタスティックビーストのターゲット層はおそらく若者(女性層)かなと思いましたし、実際に女性層が多かったです。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, 30, 9, かな, クセ, こと, シリーズ, ストーリー, そこら, ターゲット, ハリーポッター, ビースト, ファンタスティック, べん, ラスト, レビュー, わけ, 人気, 今回, 女性層, 字幕, 実感, 実際, 展開, 層, 席, 感想, 新書, 旅, 映画, 自分, 若者, 認識, 魔法使い,
天邪鬼。
2016.10.29
天邪鬼。
自分には天邪鬼なところが在る。
天邪鬼とはこういうことを言う。
あま‐の‐じゃく【天の邪▽鬼】
《2が原義》
1 わざと人に逆らう言動をする人。つむじまがり。ひねくれ者。
2 民間説話に出てくる悪い鬼。物まねがうまく、他人の心を探るのに長じる。あまんじゃく。
3 毘沙門天?(びしゃもんてん)?の鎧?(よろい)?の腹の辺りにある鬼の面。また仏像で、仁王などの仏法守護神に踏みつけられている小鬼
goo辞書より抜粋
そして何気に頑固なところがある。なんていうか昔から
そこらへんは変わらない自分の性みたいなものでなかなか変えれていない。
そういう性格なので、いろいろと損をしている気がする。
こういう性格をガラリと変わる事も実はできるらしい、、、。
マインドコントロールとかいうやつで、人の心は変えることが
出来るみたいなのだ。マインドコントロールと聞くと
あまり良い印象は良くないが、このマインドコントロールという方法で
人の思想は変えることが出来る。
誰かにマインドコントロールしてほしいこの頃です。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
FBI捜査官, goo辞書, あまん, そこら, つむじまがり, びしゃもんてん, ひねくれ者, マインドコントロール, よろい, 仁王, 仏法守護神, 原義, 小鬼, 性格, 毘沙門天, 民間説話, 物まね, 誰か,
Facebookブラウザ版でライブ動画が見えるようになってた(´Д`)
2016.05.19
Facebookブラウザ版でライブ動画が見えるようになってた・・・。
Facebookに友達いないで、ライブ動画がなんて有っても無くても
どうでも良いやとか思いつつライブ動画クリックしたら見えた。
アメリカ人かそこらへんの人が
なんか、喋っている・・・。
スゲ━━━━━━ヽ(゚Д゚)ノ━━━━━━!!!!
オープンですよね。
世界に配信するっていうことだから凄いなと。
Facebookに限らず今ではライブ配信のアプリも増えてきているので
いろいろな人が生で体験している出来事などを擬似体験できるので
ライブ配信って凄いなと思う反面、生放送なので
放送事故が起きやすいという問題も有るですよね。
よさこい祭りとかライブ配信する人が
いるですけど・・・30秒とか短いものなら良いと思いますが
あれって放送権が絡むじゃないのかなぁとか
思っています。
よさこい祭りの関係者さんがオープンで
OKですよとか言えば世界中にいろいろな人が
よさこい祭りを配信することが出来て良いようにも感じます。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Facebookブラウザ版, アプリ, アメリカ人, スゲ, そこら, よさこい祭り, ライブ動画, ライブ配信, 世界中, 出来事, 反面, 実践法則53, 擬似, 放送事故, 放送権, 生放送, 関係者,
新しいiPad Proは買い!?おそらく…
2016.03.23
https://www.youtube.com/watch?v=Kti41m9P2YA
新しいiPad Proは買いですね。
初代ipadなどを使っている人は少ないと思いますが
ipad2世代を使っている人は結構いるかと
思っています。自分もその1人です。
そろそろ、自分はipad2は初代のように
切り捨てられる運命にあると思っています。
買い替えたいと思っているなら
今からが買い替え時期なのではないかなと
思っています、なので今回の
新しいipad proは買いだと
思うわけです。
ちなみに自分は
そろそろ買い替えを考えだしています。
来年辺り値落ちするだろうから、そこらへんが
正確には買い替え時期なのかもと
思っています。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1人, iOS 9対応版, ipad2, ipad2世代, jp, スマートガイド, ゼロ, そこら, 人, 初代, 初代ipad, 新しいiPad Pro, 時期, 来年辺り値落ち, 買い, 運命,
非同期通信の2重ループは素人にはオススメしません。
2016.03.20
非同期通信の2重ループは素人にはオススメしません。
そして、2重ループでなおかつ、再帰処理だったら・・・
まさにややこしくなる事間違いないのでオススメ度は限りなく低いですね。
ただ、こういう事も出来ることを覚えていると
何かの役に立つことは間違いないです。
ちなみに再帰処理は、いろいろな言語で可能ですので
技として覚えていて損はないです。
再帰処理を追う方法はループせずに見るという
感覚を養うことが大事だと思います。
ようするに再帰処理を抜け出すひとつ前の値で
トレースすることが大事だと思われます(´Д`)。
ちなみに非同期通信の場合、非同期ですので
返ってくる順番はめちゃくちゃです。
何か番号を振って処理しないと、
うまく処理されないという事になるのでそこらへんも注意して組み立ててください。
追記2021:今では古くなったコードになったのでソースコードを削除致しました。
ただ、考えは間違っていませんがJSも進化して非同期処理も簡単に組み込めるようになりました。
これも時代の流れですね。async/await、promiseというキーワードでググってみると非同期処理の説明が書かれたサイトがありますのでそちらを参考に!!
https://qiita.com/_takeshi_24/items/1403727efb3fd86f0bcd
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, 2021, JS, いろいろ, おすすめ, コード, こと, ソース, そこら, トレース, ひとつ, べん, めちゃくちゃ, ループ, 事, 今, 何か, 値, 再帰, 処理, 削除, 可能, 同期, 場合, 大事, 役, 感覚, 技, 損, 方法, 注意, 番号, 簡単, 素人, 言語, 追記, 通信, 進化, 順番,
映画、しゃべれども しゃべれどもの感想とかを(´∀`)
2014.09.14
映画、しゃべれども しゃべれどもをレンタル屋さんかオンデマンドでレンタルして観たのか…そこらへんは忘れてしまったのですが、この映画、落語を通して人前で話すことが苦手な人たちが徐々に変わっていく姿がなんだかほのぼのしていて良かった作品です。ちなみに、この映画はすごく感動するとかいう作品ではないですけど、人の暖かさとかいうものを感じられる映画になっていることは確かです。昔は洋画ばかり観ていた自分ですが、この頃は洋画も邦画も同じぐらいの割合で見るようになりました。
邦画の良いところは、じんわりと来る暖かい作品が多いところです。全然、かんけい無いのですけど、来年(2014)のNHK連続テレビ小説「まれ」の父役に大泉洋さんが抜擢されたとかで、内心、今から楽しみにしてたりします。人によっては大泉洋さんを嫌いっていう人もいると思いますが、あの良い加減なトークは自分は好きです。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
NHK連続テレビ小説, かんけ, じんわり, そこら, トーク, レンタル屋さんかオンデマンド, 人前, 内心, 割合, 多いところ, 大事, 大泉洋, 始末, 感想, 暖かい作品, 洋画, 父役, 良いところ, 落語, 邦画,
Accessを触り始めてつれづれと。
2014.08.30
Accessを勉強し始めて2週間{まぁ本当は…}たったぐらいです。会社でAccessの制作をしようと思って発案{2ヶ月前}したものの、結局丸投げするような感じになりそうです{退きました}、もしくは頓挫。Accessの方ですが、今ままでDBと言えばCUIの系統ばかり触っていたので自分にはふ?んっていう感じでした。CUIに比べて逆に面倒だなという第一印象です。第二印象はAccessには、元々いろいろな機能が付いていて、それを使えばもっと手が抜けるのだと印象を受けました。そこらへんゴリゴリとコードを書くか、もともと合ったAccessの機能を使用するかは人によると思います。
結論から言えば、もっとGUIの機能を使用してGUIで出来る所はGUIで、コード(クラスやメソッド)で出来る所はコードでと言う風に単純明快に分けることによって、かなり良いコードが書けると思います{見やすいかどうかは人によります}。
みんなが分かるコードを書く{コードの統一}。
みんなが分かるコードを書くというのは非常に難しいですね。プログラムを書くにあたって、人それぞれ考え方が違うのです、統一にはコードというよりも人というものが大事かも。
同じものを作ってもプログラムの場合、シンプルなコードもありますし、長いコードもあります。レベルの違いや考え方の違いです。最終的な問題は人なんですね、プログラムの基本は自分で覚えれるのですが、その後の技{技術}の吸収はどんなに教えても、その人が理解できなければ無理なんです。自分もAccessの機能を、全部覚えたわけではないのですが、ひと通りの事は理解しました{まだDBまわりの機能は理解してないかな}。
まとめ
プログラムは結果と答えが正しければ良いのですが…。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
access, CUI, DBまわり, GUI, かなり良いコード, コード, そこら, ひと通り, プログラム, みんな, メソッド, 人それぞれ考え方, 吸収, 機能, 発案, 系統, 結論, 統一, 長いコード, 頓挫,